Conseil en stratégie, organisation, efficacité opérationnelle & pilotage de la transformation - Viggo
Accueil > Notre blog > Comprendre les enjeux légaux autour de l’IA

Comprendre les enjeux légaux autour de l’IA

Dans le cadre de nos travaux sur l’intelligence artificielle (IA), nous avons souhaité recueillir le point de vue d’Aurore Sauviat, avocate experte en droit des nouvelles technologies. Elle est très active sur ce sujet et intervient régulièrement lors de conférences.

L’objectif de cette interview est de comprendre les enjeux légaux autour de l’IA, ainsi que les préoccupations actuelles des entreprises face à cette innovation.

 

Merci Aurore de te prêter au jeu de cette interview. Pour commencer, peux-tu nous décrire ton poste en quelques mots ?

Je suis avocate au barreau de Paris depuis 10 ans, spécialisée dans les domaines du numérique et de l’innovation. Je suis associée au sein d’un cabinet qui accompagne les entreprises inn

ovantes sur leurs problématiques juridiques liées à des technologies émergentes telles que l’IA et le Web 3*.

Travailler sur des problématiques juridiques liées à des technologies émergentes comme l’IA implique d’être particulièrement créative et agile dans les conseils à apporter à mes clients dans la mesure où il n’existe pas encore de cadre juridique dédié.

Il faut donc identifier les risques avec pragmatisme afin de pouvoir mener un certain nombre d’actions de prévention.

*Définitions Web3 : nouvelle version d’internet où les utilisateurs peuvent posséder et contrôler leurs données grâce à la technologie blockchain qui permet d’avoir un web décentralisé sans contrôle d’une seule ou de plusieurs grosses entités type GAFAM.

Pour rebondir sur les risques liés à l’utilisation de l’IA, nous avons plusieurs initiatives sur ce sujet à Viggo.  Quels conseils nous donnerais-tu pour bien identifier et évaluer les risques liés à l’utilisation d’outils IA en entreprise ? Par quoi commencer ?

 

Je vous conseille de suivre ces 3 étapes :

  1. D’abord, il faut éduquer vos clients sur comment fonctionnent ces outils. Comment sont-ils entrainés ? D’où viennent les données qu’ils génèrent ? Si j’injecte des données qui m’appartiennent, vont elle être réutilisées ? Rendues publiques ? Que disent les conditions générales de vente de l’IA que j’utilise sur la possibilité d’exploiter les contenus générés à des fins commerciales ?

C’est un préalable indispensable pour comprendre ensuite les zones de risques.

  1. Il faut identifier quels outils IA vos clients utilisent ou prévoient d’utiliser et pour quelles finalités.

Par exemple, un expert-comptable qui utilise des IA pour produire des synthèses de documents écrits, des rapports ou des comptes rendus de réunion n’aura pas les mêmes besoins qu’une entreprise d’évènementiel utilisant des outils IA pour générer des visuels à des fins commerciales.

Ainsi, en fonction des outils choisis et de la finalité de leur utilisation, les risques à identifier vont varier.

Par exemple, pour l’expertise comptable qui est une profession réglementée, les enjeux sont beaucoup liés à la protection des données personnelles et du secret des affaires de ses clients.

En évènementiel, les problématiques seront liées à l’utilisation des contenus générés à des fins promotionnelles ou publicitaires afin de s’assurer que l’entreprise dispose des droits notamment de propriété intellectuelle pour pouvoir utiliser ces contenus.

 

  1. Il faut sensibiliser aux notions juridiques de base et édicter des chartes de bonnes pratiques de l’utilisation des outils IA. Pas besoin d’avoir un master de droit pour savoir qu’il faut respecter le RGPD (Réglementation Générale sur la Protection des Données), ne pas divulguer des secrets d’entreprise ou ne pas porter atteinte aux droits de tiers (plagiat ou parasitisme).

Il faut donc se demander comment utiliser ces outils en respectant la réglementation existante. Beaucoup de ces règles relèvent du bon sens, mais les clients ont besoin qu’on leur expose les problématiques liées à leur cas particulier.

 

Chez Viggo, nous travaillons en ce moment sur une charte de bonnes pratiques IA. Par quoi tu nous conseillerais de commencer ?
Comme pour les chartes d’utilisation des outils informatiques (mots de passe sécurisés, fermer sa session, etc), il faut établir des bonnes pratiques pour l’usage de l’IA. Ce qui paraît relever du bon sens ne l’est pas pour tout le monde.

Je vous conseillerais donc de :

  • comment ça fonctionne et pour quels besoins vous allez-vous en servir en interne ;
  1. Identifier les usages à risques qui pourraient survenir dans votre métier lors de l’utilisation de ces outils – par exemple, le fait qu’un salarié uploade dans un outil IA du contenu relevant du secret des affaires de votre client.
  2. Etablir une charte d’utilisation de l’IA et assurer une formation à vos équipes sur pourquoi elle a été établie et pourquoi les risques dont il faut se prémunir sont réels.

 

Tu as mentionné tout à l’heure plusieurs risques, notamment sur les droits d’auteur, la transparence et les données personnelles. Est-ce que tu vois d’autres risques ?

Les hallucinations des IA représentent un risque important pour les entreprises. Il est donc impératif de toujours vérifier les informations délivrées par une IA, ce qui parfois implique d’avoir une connaissance métier et de contrôler les propositions des outils IA comme des outils IA comme les LLM (Large Langage Models) qui sont le support des chatbot.

Par exemple, j’ai vu un post LinkedIn récemment où quelqu’un disait qu’il n’avait plus besoin d’avocats à 500€ de l’heure, car il pouvait gérer un procès sur un litige locatif tout seul grâce à OpenAI. Il partageait le prompt, mais OpenAI se basait sur le droit américain et la personne semblait vivre en France…

 

Il y a également eu un décision d’un tribunal au Canada concernant les chatbots d’Air Canada : en novembre 2022, un consommateur, consultait le site d’Air Canada pour réserver un vol pour les funérailles de sa grand-mère. Le chatbot lui indiquait qu’en raison de cette tragédie, la compagnie pouvait lui proposer une réduction substantielle sur le prix de son billet d’avion. Le chatbot l’invitait alors à se rapprocher d’Air Canada après son vol en lui expliquant que le billet ne lui coûtera que 600 dollars et qu’il pourra demander le remboursement de la différence « dans les 90 jours suivant la date d’émission de votre billet » en remplissant un formulaire en ligne. Mais, lorsqu’il a demandé un remboursement, Air Canada lui a répondu que les tarifs pour les voyages en cas de deuil ne s’appliquaient pas aux billets qu’il avait réservés, a refusé le remboursement et l’a renvoyé lire les informations sur la section de son site Internet consacrée aux voyages de deuil.

Pour se défendre, Air Canada a tenté de faire valoir qu’en dépit de l’erreur, le chatbot était une « entité juridique distincte » et qu’il était donc responsable de ses actes.

Le tribunal canadien ne l’a pas entendu de cette oreille et a condamné Air Canada à rembourser le consommateur conformément à ce qu’avait indiqué le chatbot et en soulignant la nécessité pour les entreprises de mieux former et contrôler leurs outils d’intelligence artificielle.

 

 

Chez Viggo, nous avons plusieurs clients qui utilisent des données sensibles. Quelles sont les pratiques recommandées dans leur cas ?

Ne jamais injecter des données sensibles ou hautement confidentielles dans les outils IA commercialisés. En pratique, les industries très confidentielles, comme celle du secteur pharmaceutique, développent leurs propres IA en interne pour contrôler leurs bases de données d’entraînement et pour éviter la fuite de leurs données.

 

Et d’un point de vue personnel, quel serait ton manifeste concernant l’utilisation de l’IA ?

Mon manifeste serait de ne pas s’indigner de l’émergence de ses outils même s’ils présentent et soulèvent de nombreux risques car on ne peut pas aller à rebours du progrès. Pour moi le plus important reste de s’informer et d’apprendre à utiliser ces outils tout en prenant conscience et en gérant les risques inhérents à leur mode de création et de fonctionnement. La formation des utilisateurs, y compris des mineurs, c’est LE grand enjeux pour assurer que les utilisateurs aient du recul sur ces outils et qu’ils puissent en profiter sans mettre en danger leur entreprise ou les données de leurs clients.

 

Un grand merci Aurore pour cet échange enrichissant, qui vient conforter la direction que nous avons choisie chez Viggo, notamment avec notre charte interne dédiée à l’IA. Nous y mentionnons cinq principes clairs : le biais et le bon sens, la conformité, l’éthique, la formation et sensibilisation et la responsabilité dans nos pratiques. Ces valeurs sont au cœur de notre engagement pour un usage de l’IA transparent et bénéfique pour tous.

Contactez-nous

Contact