Logo Zéphyrnet

Atteint par une décision prise par une IA mal formée? Vous devriez pouvoir intenter une action en dommages-intérêts, dit le professeur de droit

Date :

Les entreprises qui déploient des systèmes d'apprentissage automatique formés sur des ensembles de données inférieurs à la moyenne devraient être légalement tenues de payer des dommages-intérêts aux victimes qui ont été lésées par la technologie en vertu du droit de la responsabilité délictuelle, a déclaré un professeur de droit.

Dans un conférence virtuelle organisé par l'Université de Californie à Irvine, le professeur Frank Pasquale, de la Brooklyn Law School, a décrit comment les lois américaines devraient être étendues pour obliger les entreprises d'apprentissage automatique à rendre des comptes. La conférence était basée sur un article [PDF] publié dans la Columbia Law Review.

«Les données peuvent avoir des impacts négatifs considérables, et je pense donc qu'il devrait vraiment y avoir une responsabilité délictuelle pour de nombreuses utilisations où il y a eu des données inexactes ou inappropriées», a déclaré le professeur Pasquale. Mais pour que les victimes puissent monter un dossier contre des fournisseurs qui ont entraîné des systèmes d'IA de manière imprudente, il doit y avoir un moyen d'obtenir et d'enquêter sur les données de formation.

médecin

Vous voulez laisser un médecin alimenté par l'intelligence artificielle sur les patients? Essayez de gifler un autocollant semblable à une étiquette alimentaire, dit l'oncle Sam

EN SAVOIR PLUS

Par exemple, a-t-il déclaré, les premiers résultats de la recherche sur l'apprentissage automatique montrent que la technologie est prometteuse dans le domaine de la santé, et de nombreuses études affirment que les machines sont aussi bonnes, sinon meilleures, que les professionnels pour diagnostiquer ou prédire l'apparition d'une gamme. des maladies.

Pourtant, les données utilisées pour former de tels systèmes sont souvent défectueuses, a fait valoir le professeur Pasquale. Les ensembles de données peuvent être, par exemple, déséquilibrés, lorsque les échantillons ne sont pas suffisamment diversifiés pour représenter des personnes de diverses ethnies et sexes. Les biais dans les ensembles de données sont reportés dans la performance de ces modèles; ils sont souvent moins précis et moins efficaces pour les femmes ou les personnes à la peau plus foncée, par exemple. Dans le pire des cas, les patients pourraient être diagnostiqués par erreur ou négligés.

De nouvelles lois doivent être adoptées au niveau de l'État ou au niveau fédéral pour obliger les entreprises à être transparentes sur les données sur lesquelles leurs systèmes ont été formés et sur la manière dont ces données ont été collectées, déclare-t-il. Ensuite, les organisations fédérales, telles que la Food and Drug Administration, l'Institut national des normes et de la technologie, le ministère de la Santé et des Services sociaux ou le Bureau des droits civils, devraient lancer des efforts pour auditer les ensembles de données afin d'analyser leurs biais et effets potentiels.

«Une telle réglementation ne fournit pas seulement des conseils à l'industrie pour l'aider à éviter les accidents évitables et autres délits. Il aide également les juges à évaluer les normes de soins pour le déploiement des technologies émergentes », a écrit Pasquale dans l'article susmentionné. Il a déclaré que la réglementation ne devrait pas entraver le progrès et l'innovation dans les soins de santé de l'IA.

«Le développement est vraiment passionnant et devrait être applaudi dans ces domaines, je ne veux pas perdre la tête, mais [la technologie] ne sera juste et juste s'il y a un droit de la responsabilité délictuelle», a-t-il conclu. ®

Source : https://go.theregister.com/feed/www.theregister.com/2021/02/09/legal_fines_ai/

spot_img

Dernières informations

spot_img