Zephyrnet-logo

De EU AI Act – Wat zijn de implicaties voor het bankwezen en Fintech?

Datum:

De eindstemming van het Europees Parlement gisteren over de AI-wet, die in mei van kracht zal worden, luidt de meest uitgebreide AI-wetgeving ter wereld in. Net als de AVG zal deze mondiale gevolgen hebben buiten de EU.

De AI-wet biedt een alomvattend kader voor het waarborgen van de ontwikkeling van betrouwbare AI en het verantwoorde gebruik van AI-instrumenten, met name transparantie, vooringenomenheid, privacyschendingen, veiligheidsrisico’s en de mogelijkheid van verspreiding van verkeerde informatie.
als menselijk toezicht op de ontwikkeling van AI-technologieën. 

In die richtlijnen worden zeven niet-bindende ethische principes voor AI gebruikt, bedoeld om ervoor te zorgen dat AI betrouwbaar en ethisch verantwoord is. De principes omvatten

– menselijk handelen en toezicht;

– technische robuustheid en veiligheid;

– privacy en databeheer;

- transparantie;

– diversiteit, non-discriminatie en eerlijkheid;

– maatschappelijk en ecologisch welzijn en verantwoordingsplicht.

Met een gelaagde, op risico gebaseerde aanpak zullen AI-systemen met een hoog risico in sectoren als het bankwezen en de gezondheidszorg te maken krijgen met strenge wettelijke verplichtingen en aanzienlijke boetes voor niet-naleving. De wet categoriseert AI in vier risiconiveaus, van minimaal tot onaanvaardbaar
met toenemende verplichtingen.

De EU AI Act verbiedt de ontwikkeling, inzet en gebruik van bepaalde AI-systemen, waaronder:

– Sociale scoresystemen

- Social engineering

– Realtime biometrische identificatie op afstand in openbare ruimtes

– Op AI gebaseerde profilering en gedragsvoorspelling

– Schrapen en vergroten van gezichtsbeelden om databases uit te breiden

– Op AI gebaseerde manipulatietechnieken ondermijnen de autonomie en de vrije keuze 

Niet alle AI-systemen brengen aanzienlijke risico's met zich mee, vooral als ze de besluitvorming niet materieel beïnvloeden of beschermde juridische belangen substantieel schaden. AI-systemen met minimale impact op de besluitvorming of risico voor juridische belangen, zoals de uitvoerende partijen
beperkte taken of het versterken van menselijke activiteiten worden als laag risico beschouwd. Documentatie en registratie voor deze systemen wordt benadrukt vanwege de transparantie. Enkele van de AI-systemen met een hoog risico omvatten verschillende sectoren, waaronder het bank- en verzekeringswezen (maar ook de medische sector).
apparaten, HR, onderwijs en meer).

Verplichte eisen voor AI-systemen met een hoog risico zijn bedoeld om de betrouwbaarheid te garanderen en de risico’s te beperken, rekening houdend met hun doel en gebruikscontext. Het is belangrijk voor financiële dienstverleners en fintechbedrijven, vooral degenen die zich bezighouden met klantgegevens, om de
Houd hieronder rekening met deze vereisten voor AI-systemen met een hoog risico:

– Continu, iteratief risicobeheer voor AI met een hoog risico, gericht op gezondheid, veiligheid en rechten, waarvoor updates, documentatie en betrokkenheid van belanghebbenden nodig zijn.

– Het uitvoeren van een effectbeoordeling op de grondrechten

– rigoureus bestuur om discriminatie te voorkomen en de naleving van de wetgeving inzake gegevensbescherming te garanderen

– Trainings- en testdatasets moeten representatief, accuraat en vrij van vooroordelen zijn om negatieve gevolgen voor de gezondheid, veiligheid en grondrechten te voorkomen

– Zorgen voor menselijk toezicht en transparantie

– Zorgen voor detectie en correctie van bias

– begrijpelijke documentatie voor traceerbaarheid, nalevingscontrole, operationele monitoring en toezicht na het op de markt brengen, inclusief systeemkenmerken, algoritmen, gegevensprocessen en risicobeheer in duidelijke, bijgewerkte technische documenten, plus
automatische logboekregistratie van gebeurtenissen gedurende de hele levensduur van de AI.

– AI-systemen met een hoog risico moeten gedurende hun hele levenscyclus consistent presteren en voldoen aan een passend niveau van nauwkeurigheid, robuustheid en cyberbeveiliging

Bedrijven moeten prioriteit geven aan de ontwikkeling van verantwoorde AI om te voldoen aan recente regelgeving en om zware boetes voor niet-naleving te voorkomen. Dit zijn enkele van de stappen waarmee bedrijven moeten beginnen om naleving te garanderen:

  1. Zet AI-governance op in een vroeg stadium, waardoor betrokkenheid en buy-in bij alle belanghebbenden wordt gewaarborgd
  2. Opleiden en trainen uw team in de ethische principes van AI. Het beheren van AI-risico's zal nieuwe vaardigheden vereisen, variërend van data-analyse tot beveiliging/privacy, juridisch en nog veel meer.
  3. Voer een AI-audit uit van de organisatie (en niet alleen techniek), maar ook juridisch, HR, enz. om een ​​volledig beeld te krijgen van waar AI in de organisatie wordt gebruikt
  4. Controleer de voortdurende naleving
  5. Zorg ervoor dat uw SaaS-providers AI op verantwoorde wijze gebruiken
  6. Zorg voor transparantie, begrip en uitlegbaarheid van de modellen die in uw bedrijf worden gebruikt

Hoewel het een broodnodige stap in de goede richting is, zit de duivel in de details, en zal de AI Act een substantiële impact hebben op de toekomst van organisaties, zowel traditioneel als AI-gericht. Terwijl we door een tijdperk navigeren waarin de impact van AI steeds groter wordt
Het is diepgaand: het afstemmen op ethische normen en wettelijke vereisten is niet alleen een kwestie van naleving van de wetgeving, maar een strategische noodzaak. Door te focussen op Verantwoorde AI beschermen bedrijven zichzelf niet alleen tegen aanzienlijke boetes, maar positioneren ze zichzelf ook
als betrouwbare en vooruitstrevende entiteiten in het snel evoluerende digitale landschap. De reis naar verantwoorde AI is een uitdagend maar onmisbaar pad dat belooft de toekomst van technologie, bestuur en maatschappelijk welzijn opnieuw te definiëren.

spot_img

Laatste intelligentie

spot_img