Zephyrnet-logo

Beschadigd door een beslissing van een slecht opgeleide AI? U zou schadevergoeding moeten kunnen eisen, zegt advocaat prof

Datum:

Bedrijven die machine-leersystemen inzetten die zijn getraind op ondermaatse datasets, zouden wettelijk verplicht moeten worden om schadevergoeding te betalen aan slachtoffers die schade hebben geleden door de technologie onder onrechtmatige daad, is een professor in de rechten van mening.

In een virtuele lezing Professor Frank Pasquale van de Brooklyn Law School, georganiseerd door de University of California, Irvine, beschreef hoe de Amerikaanse wetten zouden moeten worden uitgebreid om machine-learningbedrijven ter verantwoording te roepen. De lezing was gebaseerd op een artikel [PDF] gepubliceerd in de Columbia Law Review.

"Gegevens kunnen enorme negatieve gevolgen hebben, en daarom denk ik dat er echt aansprakelijkheid zou moeten zijn voor onrechtmatige daad voor veel toepassingen waarbij er onnauwkeurige of ongepaste gegevens zijn," zei Prof Pasquale. Maar om slachtoffers in staat te stellen een zaak op te bouwen tegen leveranciers die AI-systemen op een roekeloze manier hebben getraind, moet er een manier zijn om de trainingsgegevens te verkrijgen en te onderzoeken.

dokter

Wilt u een door AI aangedreven arts loslaten op patiënten? Probeer er een voedseletiketachtige sticker op te plakken, zegt Uncle Sam

LEES VERDER

Hij zei bijvoorbeeld dat de eerste resultaten van onderzoek naar machine learning aantonen dat de technologie veelbelovend is in de gezondheidszorg, en er zijn talloze onderzoeken die beweren dat machines net zo goed of zelfs beter zijn dan professionals bij het diagnosticeren of voorspellen van het begin van een bereik. van ziekten.

Toch zijn de gegevens die worden gebruikt om dergelijke systemen te trainen vaak gebrekkig, stelde prof. Pasquale. De datasets kunnen bijvoorbeeld onevenwichtig zijn, waarbij de monsters niet divers genoeg zijn om mensen van verschillende etniciteiten en geslachten weer te geven. De vooroordelen in de datasets worden overgedragen bij de uitvoering van deze modellen; ze zijn bijvoorbeeld vaak minder nauwkeurig en minder effectief voor vrouwen of mensen met een donkere huid. In het ergste geval kunnen patiënten ten onrechte worden gediagnosticeerd of over het hoofd worden gezien.

Er moeten nieuwe wetten op staats- of federaal niveau worden aangenomen om bedrijven te dwingen transparant te zijn over de gegevens waarop hun systemen zijn getraind en hoe die gegevens zijn verzameld, stelt hij. Vervolgens moeten federale organisaties, zoals de Food and Drug Administration, het National Institute of Standards and Technology, het Department of Health and Human Services of Office for Civil Rights, inspanningen leveren om de datasets te controleren om hun mogelijke vooroordelen en effecten te analyseren.

“Dergelijke regelgeving biedt niet alleen richtlijnen voor de industrie om te voorkomen dat ongevallen en andere onrechtmatige daad voorkomen worden. Het helpt ook rechters bij het beoordelen van zorgstandaarden voor de inzet van opkomende technologieën, ”schreef Pasquale in het eerder genoemde artikel. Hij zei dat regelgeving de vooruitgang en innovatie in AI-gezondheidszorg niet mag belemmeren.

"Ontwikkeling is echt spannend en moet op deze gebieden worden toegejuicht. Ik wil de voorsprong niet verliezen, maar [de technologie] zal alleen eerlijk zijn en alleen als er een onrechtmatige daad is", concludeerde hij. ®

Bron: https://go.theregister.com/feed/www.theregister.com/2021/02/09/legal_fines_ai/

spot_img

Laatste intelligentie

spot_img