Logo Zéphyrnet

IA et droit : un avocat explique les risques pour les entreprises – Mass Tech Leadership Council

Date :

Un avocat spécialisé dans la confidentialité des données parcourt le paysage des risques liés à l’IA.

Les progrès fulgurants de l’IA génèrent beaucoup de confusion dans le monde des affaires. Mais la confusion n’est pas nécessairement une mauvaise chose. Si elle rencontre une véritable curiosité et un désir de comprendre, elle peut se transformer en sagesse.

Chris Hart, associé du cabinet d'avocats Foley Hoag, basé à Boston, le comprend bien. En tant que coprésident du groupe de sécurité des données confidentielles du cabinet, Hart conseille les entreprises clientes sur la conformité réglementaire, les aidant à identifier les risques et à adopter des politiques pour éviter les problèmes juridiques.

Récemment, Hart s'est entretenu aux côtés de deux membres de l'Institute for Experiential AI (Matthew Sample, éthicien de l'IA, et Cansu Canca, directeur de Pratique responsable de l’IA) lors d'un événement organisé par le Conseil de leadership en technologie de masse. L'événement, qui a attiré un groupe diversifié de participants, a été conçu pour aider les entreprises à comprendre comment optimiser leurs opérations grâce à l'IA.

Péril juridique

Une idée fausse très répandue est que l’IA n’est pas réglementée. Bien qu’il n’existe pas beaucoup de lois spécifiques à l’IA, de nombreuses lois s’appliquent aux technologies de l’IA. Une partie du travail de Hart consiste à conseiller les clients sur les risques liés à ces lois dont ils ne sont peut-être pas au courant. La première étape, explique-t-il, consiste à faire une distinction : parle-t-on de systèmes d’IA actuellement en développement ou de systèmes tiers utilisés par les entreprises ?

"L'une des choses qui est devenue claire avec les grands modèles de langage qui sont maintenant utilisés de manière assez omniprésente à des fins professionnelles est que, quelle que soit leur utilité, leurs entrées pourraient poser des problèmes de confidentialité", explique Hart. "Il faut faire très attention à ne pas divulguer d'informations confidentielles aux cabinets d'avocats, à ne pas divulguer d'informations privilégiées, à ne pas divulguer d'informations sensibles qui pourraient ensuite être utilisées comme données de formation et divulguées par inadvertance."

Il existe également des problèmes de propriété intellectuelle, en particulier dans le cas de l’IA générative, qui ont conduit à une série de poursuites en matière de droits d’auteur contre les sociétés d’IA. Plus particulièrement, le New York Times poursuite intentée contre OpenAI ; Getty Images poursuivi Diffusion stable ; et un groupe d'auteurs dont John Grisham, Jodi Picoult et George RR Martin poursuivi OpenAI pour « vol systématique à grande échelle ».

Il reste à voir comment ces poursuites tiendront, mais le bilan des entreprises impliquées ne peut guère être sous-estimé, et la leçon est claire : les entreprises qui utilisent l’IA, en particulier celles qui développent de nouveaux outils, doivent faire preuve de légèreté.

« Dans quelle mesure cet outil va-t-il prendre des décisions défavorables pour les organisations ? demande Hart. « Y a-t-il des préjugés ou pourrait-il y en avoir ? Comment s’en prémunir lors de la phase d’ingénierie ? Comment auditez-vous l’ensemble du processus une fois que vous l’avez mis en place pour vous assurer que vous pouvez revenir en arrière et corriger les problèmes ? »

Nouvelles perspectives

Ce sont des questions difficiles dont les réponses dépendent de cas d’utilisation spécifiques. Ils parlent également de l’importance de tisser un cadre d’IA responsable (RAI) à chaque étape de développement et de déploiement. Il semble que le succès en IA soit de plus en plus défini par la mesure dans laquelle les entreprises peuvent honorer une approche multidisciplinaire.

Voilà pourquoi la Institut d'IA expérientielle compte parmi ses rangs des ingénieurs mais aussi des philosophes, des avocats, des économistes, etc. C'est également la raison pour laquelle l'Institut et Foley Hoag sont membres du Mass Technology Leadership Council (MTLC), une association technologique qui réunit des dirigeants aux « perspectives diverses » pour résoudre des défis juridiques et économiques urgents.

« Il faut des gens qui comprennent la technologie », explique Hart. « Il faut impliquer les ingénieurs, mais il faut aussi impliquer les juristes. Vous devez avoir des personnes qui l’examinent sous différents angles, prêtes à réfléchir de manière critique à ce pour quoi la technologie est conçue et si elle peut créer des résultats indésirables, connus ou involontaires.

La patience est une vertue

Au milieu de tout le battage médiatique autour de l’IA, il est facile d’oublier l’importance de la patience. Les choses évoluent rapidement et donc, naturellement, les entreprises craignent de perdre leur avantage concurrentiel si elles n'agissent pas vite et ne cassent pas les choses. Hart préconise une approche plus prudente.

"Certaines entreprises ont été contraintes d'arriver sur le marché plus tôt qu'elles ne l'auraient prévu parce que ChatGPT a tout fait exploser", explique Hart. « Les organisations doivent soigneusement réfléchir à la maturité de leurs fournisseurs d'IA, d'autant plus qu'elles doivent comprendre ce qui arrive à leurs données. »

D’un côté, les experts affirment que l’IA est porteuse de promesses révolutionnaires. De l’IA générative au diagnostic médical, l’étendue de son potentiel ne se résume pas facilement à un seul argumentaire. D’un autre côté, une telle puissance prédictive brute justifie non seulement de la patience, mais aussi de la perspective. Peu d’entreprises sont équipées pour naviguer seules dans ce nouveau paysage.

Apprendre comment l'Institut pour l'IA Expérientielle—avec ses listes d'ingénieurs, d'universitaires et de praticiens en IA—peut aider votre entreprise à naviguer dans ces eaux difficiles, cliquez ici .

spot_img

Dernières informations

spot_img