De Europese Kunstmatige Intelligentiewet is weliswaar nog geen wet, maar zorgt binnen de Europese Unie voor nieuwe niveaus van menselijk toezicht en naleving van de regelgeving op het gebied van kunstmatige intelligentie (AI). Net als de AVG voor privacy heeft de EU AI Act het potentieel om de toon te zetten voor de komende AI-regelgeving wereldwijd.
Het Europees Parlement heeft in december 2023 een voorlopig akkoord bereikt over de EU AI-wet. Deze wet baant zich nu een weg door de laatste fasen van het wetgevingsproces en zal naar verwachting in de tweede helft van 2024 in fasen worden uitgerold. AI Act en voorbereiding op compliance zijn essentieel voor elke organisatie die AI ontwikkelt, implementeert of gebruikt – of van plan is dat te doen.
De AI Act heeft tot doel “de positie van Europa als mondiaal knooppunt van uitmuntendheid op het gebied van AI te versterken, van het laboratorium tot de markt, ervoor te zorgen dat AI in Europa vaste waarden en regels respecteert, en het potentieel van AI voor industrieel gebruik te benutten.” Nieuws van het Europees Parlement
De EU AI-wet in het kort
De primaire focus van de EU AI Act is het versterken van de naleving van de regelgeving op het gebied van risicobeheer, gegevensbescherming, kwaliteitsmanagementsystemen, transparantie, menselijk toezicht, nauwkeurigheid, robuustheid en cyberveiligheid. Het heeft tot doel de transparantie en verantwoordelijkheid te vergroten over de manier waarop AI-systemen worden ontwikkeld en ingezet, en helpt ervoor te zorgen dat AI-producten die op de markt worden gebracht, veilig zijn voor individuen om te gebruiken.
De EU AI Act heeft tot doel de uitdaging aan te gaan om AI op verantwoorde wijze te ontwikkelen en in te zetten in sectoren, inclusief sectoren die sterk gereguleerd zijn, zoals de gezondheidszorg, de financiële sector en de energiesector. Voor sectoren die essentiële diensten leveren aan klanten, zoals verzekeringen, het bankwezen en de detailhandel, vereist de wet het gebruik van een impactbeoordeling op de grondrechten waarin gedetailleerd wordt beschreven hoe het gebruik van AI de rechten van klanten zal beïnvloeden.
De hoeksteen van de EU AI Act: waarborgen om onaanvaardbare risico’s te voorkomen
De EU AI Act vereist dat AI-modellen voor algemene doeleinden, inclusief generatieve AI-systemen zoals grote taalmodellen (LLM’s) en basismodellen, zich houden aan een classificatiesysteem dat is gebaseerd op systematische risiconiveaus. Hogere risiconiveaus hebben meer transparantievereisten, waaronder modelevaluatie, documentatie en rapportage. Ze omvatten ook de beoordeling en beperking van systeemrisico's, het melden van ernstige incidenten en het bieden van bescherming tegen cyberbeveiliging. Bovendien omvatten deze transparantievereisten het bijhouden van up-to-date technische documentatie, het bieden van een samenvatting van de inhoud die wordt gebruikt voor modeltraining en het voldoen aan de Europese auteursrechtwetten.
De EU-AI-wet volgt een risicogebaseerde aanpak, waarbij gebruik wordt gemaakt van niveaus om het risiconiveau dat AI-systemen vormen voor de gezondheid, veiligheid of fundamentele rechten van een individu te classificeren. De drie niveaus zijn:
- Systemen met laag risico zoals spamfilters of videogames hebben volgens de wet weinig andere vereisten dan transparantieverplichtingen.
- AI-systemen met een hoog risico zoals autonome voertuigen, medische apparatuur en kritieke infrastructuur (water, gas, elektriciteit, enz.) vereisen dat ontwikkelaars en gebruikers zich houden aan aanvullende wettelijke vereisten:
- Implementeer risicobeheer, zorg voor nauwkeurigheid, robuustheid en een raamwerk voor verantwoording dat menselijk toezicht omvat
- Voldoe aan de transparantievereisten voor gebruikers, het bijhouden van gegevens en technische documentatie
- Verboden systemen met weinig uitzonderingen zijn systemen die een onaanvaardbaar risico met zich meebrengen, zoals sociale scores, gezichtsherkenning, emotieherkenning en biometrische identificatiesystemen op afstand in openbare ruimtes.
De EU AI Act stelt ook regels over hoe klanten op de hoogte worden gesteld wanneer ze een chatbot gebruiken of wanneer een emotieherkenningssysteem wordt gebruikt. Er zijn aanvullende vereisten voor het labelen van deepfakes en het identificeren wanneer generatieve AI-inhoud in de media wordt gebruikt.
Het niet naleven van de EU AI Act kan kostbaar zijn:
7.5 miljoen euro of 1.5% van de totale wereldwijde jaaromzet van een bedrijf (welke hoger is) voor het verstrekken van onjuiste informatie. 15 miljoen euro of 3% van de totale wereldwijde jaaromzet van een bedrijf (welke het hoogste is) voor overtredingen van de verplichtingen van de EU AI Act. December 19, 2023
De Europese AI-wet is momenteel het meest uitgebreide juridische kader voor AI-regelgeving. Regeringen over de hele wereld nemen er nota van en bespreken actief hoe ze AI-technologie kunnen reguleren om ervoor te zorgen dat hun burgers, bedrijven en overheidsinstanties worden beschermd tegen potentiële risico’s. Bovendien geven belanghebbenden, van raden van bestuur tot consumenten, prioriteit aan vertrouwen, transparantie, eerlijkheid en verantwoordelijkheid als het gaat om AI.
Voorbereiden op komende regelgeving met IBM
IBM watsonx.governance versnelt verantwoorde, transparante en verklaarbare AI-workflows
IBM® watsonx.governance™ versnelt AI-governance, het aansturen, beheren en monitoren van de AI-activiteiten van uw organisatie. Het maakt gebruik van softwareautomatisering om het vermogen te versterken om risico’s te beperken, wettelijke vereisten te beheren en de levenscyclus te beheren voor zowel generatieve AI als voorspellende machine learning (ML)-modellen.
watsonx.governance stimuleert de transparantie, uitlegbaarheid en documentatie van modellen op 3 belangrijke gebieden:
- Regelgevende naleving -beheer AI om te voldoen aan de komende veiligheids- en transparantieregelgeving, -beleid en -normen wereldwijd. Automatiseer de identificatie van wijzigingen in de regelgeving en de toepasselijke vereisten, koppel gegevens over regelgeving aan belangrijke risicocontroles en beleid, en gebruik factsheets om het vastleggen en rapporteren van metagegevens van modellen te automatiseren ter ondersteuning van vragen en audits.
- Risicomanagement - vooraf ingestelde risicodrempels en proactief de risico's van AI-modellen detecteren en beperken. Controleer op eerlijkheid, drift, vooringenomenheid en nieuwe generatieve AI-statistieken. Krijg inzicht in de risicostatus binnen uw organisatie met op gebruik gebaseerde dashboards en rapporten. Integreer alle risicogegevens, risico-/controlebeoordelingen, interne en externe verliesgebeurtenissen, belangrijke risico-indicatoren en probleem-/actieplanbeheer – binnen één enkele omgeving.
- Beheer van de levenscyclus - Beheer van de levenscyclus – beheer zowel generatieve AI als voorspellende machine learning-modellen gedurende de hele levenscyclus met behulp van geïntegreerde workflows/goedkeuringen, vooraf ingestelde waarschuwingen, dashboards en aanpasbare rapporten. Bewaak statistieken en status voor gebruiksscenario's, lopende wijzigingsverzoeken, uitdagingen, problemen en toegewezen taken.
'Breek de zwarte doos open' met AI-governance
Was dit artikel behulpzaam?
JaNee
Meer van Kunstmatige intelligentie
IBM-nieuwsbrieven
Ontvang onze nieuwsbrieven en onderwerpupdates die de nieuwste thought leadership en inzichten over opkomende trends bieden.
Abonneer nu
Meer nieuwsbrieven
- Door SEO aangedreven content en PR-distributie. Word vandaag nog versterkt.
- PlatoData.Network Verticale generatieve AI. Versterk jezelf. Toegang hier.
- PlatoAiStream. Web3-intelligentie. Kennis versterkt. Toegang hier.
- PlatoESG. carbon, CleanTech, Energie, Milieu, Zonne, Afvalbeheer. Toegang hier.
- Plato Gezondheid. Intelligentie op het gebied van biotech en klinische proeven. Toegang hier.
- Bron: https://www.ibm.com/blog/eu-ai-act/