Zephyrnet-logo

AI kan mensen overtuigen om ethisch twijfelachtige beslissingen te nemen, zo blijkt uit onderzoek

Datum:

AI geeft dagelijks vorm aan het leven van mensen, stelt prijzen vast in winkels en doet aanbevelingen, variërend van films tot romantische partners. Maar sommigen vragen zich af of AI een corrumperende kracht kan worden, en zelfs het gedrag van mensen kan beïnvloeden tot het punt dat ze ethische regels overtreden.

Een fascinerende studies gepubliceerd door onderzoekers van de Universiteit van Amsterdam, Max Planck Instituut, Otto Beisheim School of Management en de Universiteit van Keulen, heeft als doel te ontdekken in welke mate AI-gegenereerd advies mensen ertoe kan brengen morele lijnen te overschrijden. In een grootschalig onderzoek dat gebruikmaakt van OpenAI's GPT-2-taalmodel, ontdekten de onderzoekers dat AI's advies mensen kan 'corrumperen', zelfs als ze weten dat de bron van het advies AI is.

Academici maken zich steeds meer zorgen dat AI kan worden gecoöpteerd door kwaadwillende actoren om onenigheid aan te wakkeren door het verspreiden van verkeerde informatie, desinformatie en regelrechte leugens. In een papier gepubliceerd door het Middlebury Institute of International Studies 'Centre on Terrorism, Extremism, and Counterterrorism (CTEC), vinden de co-auteurs dat GPT-3, de opvolger van GPT-2, op betrouwbare wijze' informatieve 'en' invloedrijke 'tekst zou kunnen genereren die' radicaliseer individuen tot gewelddadige extreemrechtse ideologieën en gedragingen. "

De coauteurs van dit nieuwste artikel hebben GPT-2 getraind om "eerlijkheidbevorderend" en "oneerlijkheidbevorderend" advies te genereren met behulp van een dataset met bijdragen van ongeveer 400 deelnemers. Vervolgens rekruteerden ze een groep van meer dan 1,500 mensen om instructies te lezen, het advies te ontvangen en een taak uit te voeren die bedoeld was om eerlijk of oneerlijk gedrag te beoordelen.

AI corrumperende invloed

Mensen uit de groep waren gekoppeld in 'tweeën', bestaande uit een eerste en tweede 'verhuizer'. De first mover gooide privé een dobbelsteen en rapporteerde het resultaat, terwijl de second mover het rapport van de first mover leerde kennen voordat hij privé een dobbelsteen gooide en vervolgens het resultaat rapporteerde. Alleen als de eerste en tweede verhuizer hetzelfde resultaat rapporteerden, werden ze betaald volgens de waarde van de dubbele matrijswals, waarbij hogere rollen overeenkwamen met een hoger loon. Ze werden niet betaald als ze verschillende uitkomsten rapporteerden.

Voordat de uitkomst van de dobbelsteenrol wordt gerapporteerd, lezen mensen die willekeurig aan verschillende behandelingen zijn toegewezen, eerlijkheidbevorderend of oneerlijkheidbevorderend advies dat door mensen is geschreven of door AI is gegenereerd. Ze kenden de bron van het advies of wisten dat er een kans van 50-50 was dat het uit beide bronnen kwam. Degenen die het niet wisten, konden een bonus verdienen als ze de bron van het advies correct hadden geraden.

Volgens de onderzoekers 'corrumpeerde' het door AI gegenereerde advies mensen, ongeacht of de bron van het advies aan hen werd bekendgemaakt of niet. In feite was het statistische effect van door AI gegenereerd advies niet te onderscheiden van dat van door mensen geschreven advies. Nog ontmoedigender was dat eerlijkheidbevorderende adviezen van AI er niet in slaagden het gedrag van mensen te beïnvloeden.

De onderzoekers zeggen dat hun studie het belang illustreert van het testen van de invloed van AI als een stap in de richting van verantwoorde inzet. En ze waarschuwen dat mensen met kwaadaardige bedoelingen de krachten van AI kunnen gebruiken om anderen te corrumperen.

“AI kan een goede kracht zijn als het mensen weet te overtuigen ethischer te handelen. Toch laten onze resultaten zien dat AI-advies de eerlijkheid niet vergroot. AI-adviseurs kunnen dienen als zondebokken waartoe men (een deel van) de morele schuld van oneerlijkheid kan afleiden. Bovendien… in de context van het nemen van advies is transparantie over algoritmische aanwezigheid niet voldoende om de mogelijke schade ervan te verminderen ”, schreven de onderzoekers. “Wanneer AI-gegenereerd advies aansluit bij de voorkeuren van individuen om te liegen voor winst, volgen ze het graag op, zelfs als ze weten dat de bron van het advies een AI is. Het lijkt erop dat er een discrepantie bestaat tussen vermelde voorkeuren en feitelijk gedrag, wat de noodzaak benadrukt om menselijk gedrag te bestuderen in interactie met feitelijke algoritmische output. "

VentureBeat

De missie van VentureBeat is om een ​​digitaal stadsplein te zijn voor technische besluitvormers om kennis op te doen over transformatieve technologie en transacties. Onze site biedt essentiële informatie over datatechnologieën en strategieën om u te begeleiden bij het leiden van uw organisaties. We nodigen u uit om lid te worden van onze community, om toegang te krijgen tot:

  • up-to-date informatie over de onderwerpen die u interesseren
  • onze nieuwsbrieven
  • gated thought-leader content en toegang met korting tot onze gewaardeerde evenementen, zoals Transform
  • netwerkfuncties en meer

Word lid

Bron: https://venturebeat.com/2021/02/16/ai-can-persuade-people-to-make-ethically-questionable-decisions-study-finds/

spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?