Zephyrnet-logo

Vraag het een data-ethicus: kunnen we onverklaarbare AI vertrouwen? – DATAVERSITEIT

Datum:

In de afgelopen maand kolom, Ik vroeg lezers om hun “grote vragen” in te sturen als het gaat om data en AI. De vraag van deze maand beantwoordde die oproep ruimschoots! Het omvat de enorme gebieden van vertrouwen in AI-tools en verklaarbaarheid.

Hoe kunnen we weten of een AI-tool een ethisch resultaat oplevert als we geen idee hebben hoe het tot zijn antwoorden komt?

Voordat we de vraag direct kunnen beantwoorden, zijn er een paar belangrijke dingen die we eerst moeten bespreken:

AI is niet één ding

Er wordt een hele reeks technologieën op de markt gebracht onder de paraplu van AI – alles van gezichtsherkenningstechnologieën die gebruik maken van computervisie tot aanbevelingssystemen en chatbot-achtige tools zoals ChatGPT, om er maar een paar te noemen. De specifieke manieren waarop deze technologieën werken en waarvoor ze worden gebruikt, spelen een rol bij de kwestie van verklaarbaarheid en vertrouwen. Over het algemeen betekent machine learning het vinden van patronen in veel gegevens om een ​​resultaat of output te produceren. Er zijn tal van algemene ethische problemen die verband houden met dat proces. Om de vraag volledig te kunnen beantwoorden, moeten we echter proberen zo specifiek mogelijk te zijn over welke AI-tool we bespreken.

Ethiek in context

Net als de term AI omvat ethiek ook een hele reeks kwesties en afhankelijk van de specifieke situatie kunnen bepaalde ethische kwesties meer of minder prominent worden. Om een ​​extreem voorbeeld te gebruiken: de meeste mensen zullen minder om hun privacy geven in een situatie van leven en dood. In een situatie van vermissing is de voornaamste zorg het lokaliseren van die persoon. Dit kan inhouden dat we alle mogelijke middelen moeten gebruiken om ze te vinden, inclusief het vrijgeven van veel persoonlijke informatie aan de media. Wanneer echter de vermiste persoon wordt gelokaliseerd, ontstaat er alle publiciteit over de situatie moet worden verwijderd. De ethische vraag draait er nu om ervoor te zorgen dat het verhaal het slachtoffer niet zijn hele leven blijft volgen, waardoor een mogelijk stigma wordt geïntroduceerd. In dit voorbeeld verschuift de ethische kwestie volledig in het licht van de contextuele omstandigheden.

Menselijke keuzevrijheid en uitleg

Om ervoor te zorgen dat een persoon zijn keuzevrijheid kan uitoefenen en verantwoordelijk kan worden gehouden als een moreel middel, is het belangrijk om een ​​bepaald niveau van begrip over een situatie te hebben. Als een bank bijvoorbeeld een lening weigert, moet zij de aanvrager uitleggen hoe die beslissing tot stand is gekomen. Dit zorgt ervoor dat het niet gebaseerd was op irrelevante factoren (je droeg blauwe sokken) of factoren waar iemand geen controle over heeft (ras, leeftijd, geslacht, enz.) die discriminerend zouden kunnen blijken. De uitleg moet redelijk en begrijpelijk zijn voor degene die de uitleg nodig heeft. Het geven van een zeer technische uitleg aan een leek zal dus ontoereikend zijn. Er zit ook een menselijke waardigheidsaspect aan uitleg. Mensen respecteren betekent hen met waardigheid behandelen. 

De elementen van vertrouwen

Vertrouwen kent vele facetten. Onze samenleving heeft infrastructuren gebouwd die het vertrouwen in het gebruik van technologieën helpen vergroten. In de jaren 1850 bijvoorbeeld toen de lift een nieuwe technologie was, het is ontworpen op een manier die niet altijd veilig was. Touwen werden gebruikt als kabels en die konden rafelen en breken. In de loop van de tijd zagen we betere ontwerpen, en we hebben een proces om toezicht te houden op de liftactiviteiten. Er zijn wetten die regelmatige veiligheidscontroles vereisen. Hoe weten we dat de veiligheidscontroles zijn uitgevoerd? Wij vertrouwen op het systeem dat naleving afdwingt. We hoeven ons niet langer af te vragen of we veilig op de 77e verdieping aankomen voordat we in het kleine metalen doosje stappen. Vertrouwen is in dit geval een constructie van betrouwbare, veilig ontworpen technologie en passende systemen voor toezicht en bestuur.

Op naar onze vraag…

Laten we, met deze elementen in gedachten, dieper ingaan op onze vraag. Het superkorte en waarschijnlijk onbevredigende antwoord op de vraag is: “we kunnen het niet zeker weten.” Laten we echter proberen enkele details over het hulpmiddel en de context in te vullen, zodat we tot een nuttiger antwoord kunnen komen.

Laten we aannemen dat we eindgebruikers zijn en dat we een generatieve AI-tool gebruiken om ons te helpen inhoud te maken voor een presentatie die we op het werk geven. Hoe kunnen we ervoor zorgen dat we goede keuzes maken, zodat we dit instrument in deze context op een verantwoorde manier kunnen gebruiken?

Ethiek van hoe het gemaakt wordt

Er zijn ethische kwesties rond generatieve AI die wij als eindgebruiker niet kunnen oplossen. De meeste generatieve AI is gemaakt met behulp van twijfelachtig verkregen gegevens van het internet. Het bevat bevooroordeelde en niet-representatieve gegevens. Er zijn ook problemen met de arbeidsvoorzieningsketen en milieu problemen gerelateerd aan het trainen van grote taalmodellen. Bovendien is het (momenteel) niet mogelijk om dit te hebben interpreteerbaarheid – een gedetailleerd technisch inzicht in een groot taalmodel. Voor een leek kan het voldoende verklaring zijn om te begrijpen dat een groot taalmodel probabilistische methoden gebruikt om het volgende woord te bepalen dat plausibel lijkt en dat het altijd zal proberen een antwoord te geven, zelfs als het antwoord niet juist is. 

Als eindgebruiker zult u deze ethische kwesties niet aanpakken. Het beste wat u kunt doen, is beslissen of u de tool nog steeds wilt gebruiken of niet, gezien de manier waarop deze is gemaakt. Ik hoop dat sommige bedrijven in de loop van de tijd betere, verantwoorder ontwikkelde tools zullen ontwerpen die deze problemen aanpakken, of dat de regelgeving zal vereisen dat deze problemen worden opgelost. 

AI verantwoord gebruiken

Ervan uitgaande dat u besluit door te gaan, is de volgende stap het nemen van verantwoordelijkheid voor de resultaten. Dit betekent weten dat generatieve AI niets begrijpt. Er zijn veel verhalen geweest over hoe het hulpmiddel ‘hallucineert’ en waarom het niet mag worden gebruikt voor zaken met hoge inzet, zoals juridisch werk. Waar is het, gegeven deze informatie, zinvol om de generatieve AI-tool te gebruiken? Misschien helpt het bij het brainstormen. Misschien kan het een schets maken of u helpen met een eerste concept. 

Er zijn ook verschillen tussen generatieve AI die het min of meer veilig kunnen maken voor gebruik. Een bedrijfsoplossing die binnen de grenzen van uw bedrijf wordt geïmplementeerd, heeft bijvoorbeeld waarschijnlijk meer privacy en andere vangrails dan een openbare tool als ChatGPT. Als u een bedrijfstool gebruikt, kunt u de IT-afdeling van uw bedrijf vragen welk due diligence-onderzoek er is uitgevoerd voordat de tool werd ingevoerd. (Tip: als u AI aanschaft, moet u leveranciers lastige vragen stellen en due diligence uitvoeren!) Bovendien moet uw bedrijf beleid en procedures aanwezig zijn om de tools in overeenstemming met hun verwachtingen te gebruiken.

U kunt de uitvoer ook dubbel controleren. U kunt andere bronnen gebruiken om informatie te verifiëren. Als u afbeeldingen genereert, kunt u specifieke aanwijzingen gebruiken om ervoor te zorgen dat u een grotere diversiteit aan weergave krijgt. Zijn bewust van stereotypen en zorg ervoor dat u het systeem niet vraagt ​​om een ​​afbeelding te genereren auteursrechtelijk beschermd

Tot slot: wat zijn de belangen die bij dit werk betrokken zijn? Is het voor een interne presentatie of wordt de gegenereerde content gebruikt in een landelijke advertentiecampagne? Hoe hoger de inzet, hoe meer due diligence en evaluatie u moet uitvoeren – inclusief het betrekken van externe belanghebbenden bij iets dat grote gevolgen kan hebben.

Stuur mij uw vragen!

Ik zou liefde om te horen over uw datadilemma's of ethische vragen en dilemma's op het gebied van AI. U kunt mij een bericht sturen via hallo@ethisch uitgelijndai.com of maak contact met mij op LinkedIn. Ik zal alle vragen vertrouwelijk houden en alle potentieel gevoelige informatie verwijderen – dus voel je vrij om de zaken ook op hoog niveau en anoniem te houden. 

spot_img

Laatste intelligentie

spot_img