Zephyrnet-logo

Best practices voor AI-governance – DATAVERSITEIT

Datum:

Sansoen Saengsakaorat / Shutterstock.com

AI-governance is bedoeld om het verantwoorde gebruik van kunstmatige intelligentie te bevorderen voor de verbetering van de mensheid. Kunstmatige intelligentie heeft bewezen nuttig te zijn bij het snel en efficiënt uitvoeren van een grote verscheidenheid aan taken. Helaas kan het ook worden gebruikt om crimineel gedrag te ondersteunen of om verkeerde informatie te creëren en te verspreiden. AI-governance is een poging om het gebruik van kunstmatige intelligentie voor crimineel en onethisch gedrag tot een minimum te beperken.

Recente ontwikkelingen op het gebied van kunstmatige intelligentie – ChatGPT, generatieve AI, grote taalmodellen – hebben leiders uit de industrie en de overheid ertoe aangezet de noodzaak van ethische richtlijnen en regelgeving bij het gebruik van AI te erkennen.     

De ontwikkeling van AI-governanceprogramma’s, regelgeving en richtlijnen is een poging om de ontwikkeling en toepassingen van AI-technologie te beheersen. Schrijvers hebben bijvoorbeeld grote zorgen geuit over de vervanging door kunstmatige intelligentie, en de Writers Guild of America ging in staking en eiste hogere lonen en strenge beperkingen op het gebruik van AI voor schrijfdoeleinden

Het vermogen om levensechte beelden te creëren (ook wel “diepe vervalsingen”) van individuen die alles zeggen wat gewenst is door de persoon die de AI controleert, is voor sommige politici en politieke groeperingen een zorg geworden. Er zijn losgeldeisen ingediend nadat het computersysteem van een bedrijf was geïnfecteerd door AI-gegenereerde malware, of nadat de stem van een dochter aan de telefoon was nagebootst, snikkend en dit aan een ouder vertelde ze is ontvoerd.

AI-governance houdt zich bezig met een verscheidenheid aan kritieke kwesties, zoals privacy, ingebouwde vooroordelen, nabootsing van identiteit, diefstal en fraude. Het is jammer dat wetten en regels nodig zijn om de mensen te beschermen tegen individuen met een zwakke of geen ethiek. Bedrijven moeten er een punt van maken om op de hoogte te blijven van opkomende wet- en regelgeving en ervoor te zorgen dat de creatie en inzet van hun AI-systemen in overeenstemming zijn.

Organisaties kunnen navigeren door de Etnische twijfels voortgebracht door het gebruik van kunstmatige intelligentie door zich te houden aan een systeem van best practices op het gebied van AI-beheer, en op zijn beurt het verantwoorde gebruik ervan voor de verbetering van de mensheid te bevorderen.

Inspanningen van de overheid om kunstmatige intelligentie te reguleren

In de Verenigde Staten kan de vrijheid van meningsuiting worden verward met de vrijheid om te liegen. De situatie is verwarrend en maakt het moeilijk om wetten te creëren die desinformatie beperken. Kunstmatige intelligentie kan een opmerkelijk nuttig hulpmiddel zijn bij het vergroten van fraude. 

Om een ​​systeem te ontwikkelen dat zowel individuen als de vrijheid om innovatief te zijn beschermt, moeten regeringen bepaalde stappen ondernemen. De eerste stap omvat het ontwikkelen van inzicht in de problemen die voortvloeien uit het onethische gebruik van kunstmatige intelligentie. In de Verenigde Staten de Senaat geïnitieerd dit toen ze verschillende tech-CEO's vroegen om negen sessies bij te wonen, waarvan de eerste plaatsvond op 13 september 2023, om de zorgen van de CEO's over AI te bespreken.

Op 30 oktober 2023 vaardigde president Biden een besluit uit uitvoerende orde over AI-problemen. Met uitzondering van een mandaat dat vereist dat “ontwikkelaars van de krachtigste AI-systemen hun veiligheidstestresultaten en andere kritische informatie delen met de Amerikaanse overheid”, gaat het uitvoeringsbesluit over het “ontwikkelen” van normen en richtlijnen. Op dit moment hebben de Verenigde Staten geen wetten ontwikkeld die het gedrag van kunstmatige intelligentie controleren of beperken.  

De Europese Unie (EU) was een van de eerste overheidsorganisaties die besloot dat ze op AI gerichte regelgeving nodig hadden. De definitieve tekst van hun voorgestelde wetgeving, de EU AI-wet, wordt nog steeds ontwikkeld na een overeenkomst op 8 december 2023. Ze kozen ervoor om een ​​reeks risiconiveaus te ontwikkelen, waarbij AI-systemen voor onaanvaardbare risico's worden beschreven als een bedreiging voor mensen (deze risico's zullen worden verboden). Onaanvaardbare risico's zijn onder meer:

  • De cognitieve, opzettelijke gedragsmatige manipulatie van mensen of specifieke kwetsbare groepen. Een voorbeeld hiervan is stemgestuurd speelgoed dat kinderen aanmoedigt gevaarlijk gedrag te vertonen.
  • Sociale scores, het proces waarbij mensen worden geclassificeerd op basis van hun sociaal-economische status, gedrag of persoonlijke kenmerken.
  • Het gebruik van biometrische identificatiesystemen in realtime en op afstand.

China heeft niet dezelfde overwegingen op het gebied van de vrijheid van meningsuiting die democratische regeringen steunen. Als gevolg daarvan zijn hun AI-prioriteiten verschillend. De voorlopige administratieve maatregelen voor generatieve kunstmatige-intelligentiediensten werd geïmplementeerd op 15 augustus 2023. Deze AI-controleregels vereisen dat bedrijven die generatieve AI-diensten aanbieden, een veiligheidsbeoordeling uitvoeren en algoritmen archiveren. Ze vereisen ook dat aanbieders zich inspannen om de nauwkeurigheid, objectiviteit, authenticiteit en betrouwbaarheid van de gegenereerde inhoud te verbeteren, en eisen dat er toezicht op wordt gehouden.

Over het algemeen zijn de landen die zich bezighouden met AI-governance nog steeds bezig met het ontwikkelen van passende wet- en regelgeving.

Best practices voor AI-governance ontwikkelen binnen een bedrijf

Bedrijfsmanagers moeten rekening houden met de impact van AI op hun klanten en werknemers, en beleid implementeren om risico’s te minimaliseren en schade te voorkomen. Door een systeem van best practices op het gebied van AI-beheer te ontwikkelen, kunnen bedrijven het verantwoorde gebruik van kunstmatige intelligentie voor de vooruitgang van de mensheid ondersteunen. 

Best practices zijn onder meer:

Identificeer door AI gegenereerde materialen: Veel regeringen bespreken het vereiste gebruik van watermerken als een manier om door AI gegenereerde kunst te onderscheiden. Voor organisaties die eerlijk en verantwoordelijk zijn, biedt een watermerk een gemakkelijke manier om te communiceren dat de kunst door AI is gemaakt, en niet door een mens. Het probleem met watermerken is dat ze vrij gemakkelijk kunnen worden verwijderd; Om de kans op verwarring en verkeerde informatie te vergroten, kunnen watermerken worden toegevoegd aan door mensen gemaakte kunst. 

Eerlijke en verantwoordelijke organisaties zouden een watermerk moeten aanbrengen op alle door AI gegenereerde kunst. Artikelen die door AI zijn geschreven, moeten “AI gegenereerd” op de plek plaatsen waar normaal gesproken de naam van de auteur staat, ongeacht of de persoon die het artikel heeft geïnitieerd het auteurschap wil claimen. (Anders doen is eenvoudigweg misleidend en bedrieglijk.) 

Omgaan met algoritmische vooroordelen: Onbedoelde (of in het geheim geplante) vooroordelen en vooroordelen die in de algoritmen van een AI zijn ingebouwd, kunnen een impact hebben op de wervingspraktijken en de klantenservice van een organisatie door gebruik te maken van demografische gegevens zoals ras of geslacht.

Om te bepalen of een AI bevooroordeeld is, kunt u deze eerst testen. Test het meerdere keren op vooroordelen. Excel heeft zich ontwikkeld What-If-analysetools (Doel zoeken en Scenario Manager) die deze tests zal uitvoeren. Deze instrumenten zijn ontworpen om gelijkheid en eerlijkheid in AI-systemen te bevorderen. Ze zorgen ervoor dat de AI zonder discriminatie werkt.

Beveiliging van de klant: Er zijn twee basistypen klantinformatie die bedrijven verzamelen. De eerste wordt rechtstreeks door de klant aangeleverd en bevat onder meer het woonadres en telefoonnummer, eventueel een geboortedatum. Iedereen is het erover eens dat deze informatie veilig en beschermd moet zijn.

Kunstmatige intelligentie kan worden gecombineerd met Data Governance om de privacy- en beveiligingswetten voor gegevens te ondersteunen. Door een door AI ondersteund Data Governance-programma en beveiligingsregels te ontwikkelen, kan een bedrijf de risico’s van gestolen en uitgebuite gegevens aanzienlijk verminderen. 

De tweede vorm van klantinformatie is gekocht bij andere organisaties en omvat gegevens variërend van online winkelpatronen tot sociale media-activiteit. Dit soort informatie (ook wel ‘gegevens van derden’ genoemd) wordt verzameld met de bedoeling iemand te manipuleren om een ​​aankoop te doen. 

De meeste mensen houden er niet van dat hun persoonlijke voorkeuren en behoeften worden geobserveerd en uitgebuit. Eerlijke en verantwoordelijke bedrijven mogen het gebruik van kunstmatige intelligentie bij het manipuleren van mensen, noch gegevens van derden in het algemeen, niet ondersteunen.

Ontwikkel een filosofie van “doe geen kwaad” bij het gebruik van AI: Er zijn bedrijven die alleen winst op de korte termijn nastreven en waarin bedrog prima is, zolang het maar winst oplevert. Maar zou u meer dan eens zaken met hen doen? Bij het voortdurende streven naar winst kan het gemakkelijk zijn om het grote geheel uit het oog te verliezen.

Wanneer ethiek wordt opgenomen in het bedrijfsmodel, ontstaat er een filosofie van ‘do no damage’. Eerlijke, nauwkeurige informatie schaadt zelden het klantenbestand van een bedrijf, maar bedrog of diefstal resulteert doorgaans in het verlies van toekomstige zaken met die klant. Bovendien stroomlijnt nauwkeurige informatie de efficiëntie en de stroom van de samenleving als geheel, waardoor de vooruitgang van de mensheid wordt bevorderd. De introductie van verkeerde informatie kan tot chaos en verwarring leiden. 

Kunstmatige intelligentie kan worden gebruikt om chaos en verwarring te bevorderen, of kan worden gebruikt voor goede communicatie. 

Ontwikkel een ethische code voor zowel de organisatie als de AI: Een ethische code voor AI-governance moet de wens en toewijding van de organisatie aan ethisch gedrag schetsen. Deze ethische code kan een verbintenis omvatten om “kunstmatige intelligentie te gebruiken om nauwkeurige informatie te verstrekken” en “kunstmatige intelligentie mag niet worden gebruikt om verkeerde informatie te creëren of te verspreiden.”

Het creëren van een ethische code voor AI-governance helpt een organisatie duidelijke gedragsnormen vast te stellen. Als de ethische code van een bedrijf voor het publiek beschikbaar wordt gesteld, kan hij helpen bij het ontwikkelen van het vertrouwen van klanten en belanghebbenden, het beperken van juridische risico's en het tonen van sociale verantwoordelijkheid.

De datasteward en AI-ethiekrapporten: Een AI-governanceprogramma moet een reeks beleidsmaatregelen en procedures omvatten die ethische zorgen ondersteunen. Eén van deze beleidsregels zou regelmatig geplande ethische rapporten moeten vereisen, en de gegevensbeheerder lijkt mij de geschikte persoon om deze verantwoordelijkheid aan toe te wijzen. Door een rapportagemechanisme te creëren over het ethisch gebruik van de kunstmatige intelligentie van de organisatie, kan het senior leiderschap verantwoording afleggen. Routinematige audits kunnen ook helpen om potentiële juridische problemen te identificeren en de naleving te bevorderen. 

Deze maatregelen versterken gezamenlijk de implementatie van een AI-governanceprogramma en bevorderen verantwoorde AI-praktijken in de hele organisatie.

Leid management en personeel op: Het creëren van een alomvattend AI-governanceprogramma vereist dat al het personeel en management inzicht hebben in de ethische code en de langetermijndoelstellingen van de organisatie. Het onderwijsproces zorgt ervoor dat al het personeel dezelfde doelen nastreeft, en dat niemand van het personeel deze doelen op een misplaatste manier tegenwerkt.

Het gebruik van algoritmen in AI-governance

Als wij als mensen een manier vinden om nauwkeurige informatie van desinformatie te scheiden en te identificeren, kunnen we mogelijk algoritmen ontwikkelen die voorkomen dat kunstmatige intelligentie criminele handelingen uitvoert en desinformatie verspreidt.

spot_img

VC Café

VC Café

Laatste intelligentie

spot_img