Zephyrnet-logo

Hier komen de AI-voorschriften  

Datum:

Nieuwe voorgestelde wetten om AI te regeren worden in de VS en Europa besproken, waarbij China een regering-eerste aanpak volgt. (Credit: Getty Images)  

Door AI Trends Staff 

Nieuwe wetten zullen binnenkort bepalen hoe bedrijven AI gebruiken.   

De vijf grootste federale financiële toezichthouders in de VS hebben onlangs een verzoek om informatie uitgebracht over hoe banken AI gebruiken, wat aangeeft dat er nieuwe richtlijnen komen voor de financiële sector. Kort daarna publiceerde de Amerikaanse Federal Trade Commission een reeks richtlijnen over ‘waarheid, eerlijkheid en gelijkheid’ op het gebied van AI, waarin het illegale gebruik van AI werd gedefinieerd als elke handeling die ‘meer kwaad dan goed veroorzaakt’, aldus een recent verslag in Harvard Business Review  

En op 21 april bracht de Europese Commissie haar eigen voorstel uit voor de regulering van AI (zie AI Trends(22 april 2021)  

Andrew Burt, Managing Partner, bnh.ai

Hoewel we niet weten wat deze regelgeving zal toestaan: “Drie Centrale trends verenigen bijna alle huidige en voorgestelde wetten op het gebied van AI, wat betekent dat er concrete acties zijn die bedrijven nu kunnen ondernemen om ervoor te zorgen dat hun systemen niet in strijd komen met bestaande en toekomstige wet- en regelgeving”, aldus artikelauteur Andrew Burt, de beherend vennoot van bnh.ai, een boetiekadvocatenkantoor dat zich richt op AI en analytics.  

Eerste, beoordelingen van AI-risico's uitvoeren. Documenteer als onderdeel van de inspanning hoe de risico's zijn geminimaliseerd of opgelost. Er zijn regelgevingskaders beschikbaar die verwijzen naar deze ‘algoritmische impactbeoordelingen’ of ‘IA voor AI’.  

Virginia is bijvoorbeeld onlangs overleden Wet bescherming persoonsgegevens consumenten, vereist beoordelingen voor bepaalde typen algoritmen met een hoog risico. 

Het nieuwe voorstel van de EU vereist dat er een achtdelig technisch document wordt ingevuld voor AI-systemen met een hoog risico, waarin “de voorzienbare onbedoelde uitkomsten en bronnen van risico’s” van elk AI-systeem worden beschreven, stelt Burt. Het EU-voorstel is vergelijkbaar met de Algorithmic Accountability Act die in 2019 bij het Amerikaanse Congres werd ingediend. Het wetsvoorstel is nergens heen gegaan, maar zal naar verwachting opnieuw worden ingevoerd.  

Tweede verantwoordelijkheid en onafhankelijkheid. Deze suggestie is dat de datawetenschappers, advocaten en anderen die het AI-systeem evalueren andere prikkels hebben dan die van de datawetenschappers in de frontlinie. Dit zou kunnen betekenen dat de AI wordt getest en gevalideerd door ander technisch personeel dan degenen die de AI oorspronkelijk hebben ontwikkeld, of dat organisaties ervoor kunnen kiezen externe deskundigen in te huren om het AI-systeem te beoordelen.   

“Ervoor zorgen dat duidelijke processen onafhankelijkheid creëren tussen de ontwikkelaars en degenen die de systemen op risico’s beoordelen, is een centraal onderdeel van vrijwel alle nieuwe regelgevingskaders op het gebied van AI”, stelt Burt.  

Ten derde, continue beoordeling. AI-systemen zijn ‘bros en onderhevig aan een hoog faalpercentage’, met risico’s die in de loop van de tijd toenemen en veranderen, waardoor het moeilijk wordt om risico’s op een bepaald moment te beperken. “Zowel wetgevers als toezichthouders zenden de boodschap uit dat risicobeheer een continu proces is”, aldus Burt.  

Benaderingen in de VS, Europa en China verschillen  

De benaderingen tussen de VS, Europa en China ten aanzien van AI-regulering verschillen in hun aanpak, volgens een recent verslag in Het Verdict, gebaseerd op analyse door Global Data, het data-analyse- en adviesbureau gevestigd in Londen. 

“Europa lijkt optimistischer over de voordelen van regulering, terwijl de VS heeft gewaarschuwd voor de gevaren van overregulering”, aldus het verslag. Ondertussen “blijft China een regering-eerste aanpak volgen” en krijgt het veel kritiek vanwege het gebruik van AI-technologie om burgers te monitoren. Het account vermeldde voorbeelden van de uitrol door Tencent vorig jaar van een op AI gebaseerd kredietscoresysteem om de ‘vertrouwenswaarde’ van mensen te bepalen, en de installatie van bewakingscamera’s buiten de huizen van mensen om de quarantaine te monitoren die werd opgelegd na het uitbreken van COVID-19. . 

"Of de door de Amerikaanse technologie-industrie geleide inspanningen, de Chinese ‘regering-first’-aanpak of de Europese privacy- en regelgevingsgedreven aanpak de beste weg vooruit zijn, valt nog te bezien”, aldus het verslag. 

In de VS zijn veel bedrijven zich bewust van het risico van nieuwe AI-regelgeving die innovatie en hun vermogen om te groeien in de digitale economie zou kunnen belemmeren. recent verslag van pwc, de multinationale professionele dienstverlener.   

"Het is in het belang van een bedrijf om risico’s op het gebied van data, governance, output, rapportage, machine learning en AI-modellen aan te pakken, vóórdat er regelgeving komt”, stellen de analisten van PWC. Ze adviseerden bedrijfsleiders om mensen uit de hele organisatie samen te brengen om toezicht te houden op de verantwoordelijkheid en het beheer van de technologie, onder toezicht van een divers team dat bestaat uit leden met zakelijke, IT- en gespecialiseerde AI-vaardigheden.  

Critici van de Europese AI-wet noemen een te groot grijs gebied 

Terwijl sommigen beweren dat de door de Europese Commissie voorgestelde AI-wet te veel grijs gebied laat, tDe hoop van de Europese Commissie is dat hun voorgestelde AI-wet richtlijnen zal bieden voor bedrijven die AI willen nastreven, evenals een zekere rechtszekerheid.   

Thierry Breton, Europees commissaris voor de Interne Markt

“Vertrouwen… wij denken dat het van cruciaal belang is om de door ons gewenste ontwikkeling van kunstmatige intelligentie mogelijk te maken”, aldus Thierry Breton, Europees commissaris voor de Interne Markt, in een verslag in TechCrunch. AI-toepassingen “moeten betrouwbaar, veilig en niet-discriminerend zijn – dat is absoluut cruciaal – maar we moeten natuurlijk ook kunnen begrijpen hoe deze toepassingen precies zullen werken.” 

“Wat we nodig hebben, is begeleiding. Vooral in een nieuwe technologie… We zijn en zullen het eerste continent zijn waar we richtlijnen zullen geven – we zullen zeggen: 'Hé, dit is groen, dit is donkergroen, dit is misschien een beetje oranje en dit is verboden' . Dus als je toepassingen van kunstmatige intelligentie wilt gebruiken, ga dan naar Europa! Je zult weten wat je moet doen, je zult weten hoe je het moet doen, je zult partners hebben die het redelijk goed begrijpen, en trouwens, je zult ook op het continent komen waar de grootste hoeveelheid industriële data ter wereld zal worden gecreëerd. voor de komende tien jaar.” 

'Dus kom haare– omdat kunstmatige intelligentie over data gaat – geven wij u de richtlijnen. We zullen ook over de middelen beschikken om dit te doen en over de infrastructuur”, opperde Breton. 

Een andere reactie was dat het voorstel van de Commissie te ruime uitzonderingen kent, bijvoorbeeld voor wetshandhavingsinstanties om gebruik te maken van biometrische surveillance op afstand, inclusief gezichtsherkenningstechnologie, en dat het niet ver genoeg gaat om het risico van discriminatie aan te pakken. 

De reacties op het voorstel van de Commissie bevatten veel kritiek op te brede vrijstellingen voor het gebruik van biometrische bewaking op afstand door rechtshandhavingsinstanties (zoals gezichtsherkenningstechnologie) en de bezorgdheid dat maatregelen in de verordening om het risico van discriminatie van KI-systemen aan te pakken, lang niet uitkomen ver genoeg. 

“De wetgeving ontbeert elke vorm van bescherming tegen discriminatie, terwijl de verreikende vrijstelling voor het ‘waarborgen van de openbare veiligheid’ de weinige waarborgen die er zijn met betrekking tot het strafrecht volledig ondergraaft”, aldus Griff Ferris, juridisch en beleidsmedewerker voor Fair Trials, de mondiale crimineel. Justitiewaakhond gevestigd in Londen. “Het raamwerk moet strenge waarborgen en beperkingen omvatten om discriminatie te voorkomen en het recht op een eerlijk proces te beschermen. Dit moet onder meer het beperken van het gebruik van systemen omvatten die proberen mensen te profileren en het risico op criminaliteit te voorspellen.”  

Om dit te bereiken stelde hij voor: “De voorstellen van de EU hebben radicale veranderingen nodig om de harde bedrading van discriminatie in de uitkomsten van het strafrecht te voorkomen, het vermoeden van onschuld te beschermen en een zinvolle verantwoording voor AI in het strafrecht te garanderen." 

Lees de bronartikelen en informatie in Harvard Business Reviewin Het Verdict en in TechCrunch. 

Coinsmart. Beste Bitcoin-beurs in Europa
Bron: https://www.aitrends.com/data-privacy-and-security/here-come-the-ai-regulations/

spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?