Zephyrnet-logo

Het is je menselijke overmoed die de acceptatie van AI tegenhoudt

Datum:

De menselijke psychologie kan mensen ervan weerhouden de voordelen van kunstmatige intelligentie in te zien, aldus een drietal in Nederland gevestigde experts.

Maar met training kunnen we leren onze vooroordelen te overwinnen en onze geautomatiseerde adviseurs te vertrouwen.

In een voordrukpapier met de titel "Knowing About Knowing: An Illusion of Human Competence Can Hinder Appropriate Reliance on AI Systems", onderzoeken Gaole He, Lucie Kuiper en Ujwal Gadiraju, van de Technische Universiteit Delft, of het Dunning-Kruger-effect mensen belemmert om te vertrouwen op aanbevelingen van AI-systemen.

Het Dunning-Kruger-effect (DKE) dateert uit onderzoek uit 1999 door psychologen David Dunning en Justin Kruger, "Ongeschoold en zich er niet van bewust: hoe moeilijkheden bij het herkennen van iemands eigen incompetentie leiden tot opgeblazen zelfbeoordelingen."

Dunning en Kruger stellen dat incompetente mensen niet in staat zijn hun incompetentie te erkennen en daardoor geneigd zijn hun capaciteiten te overschatten.

Ervan uitgaande dat DKE bestaat - iets waar niet iedereen het over eens is – suggereren de Delftse onderzoekers dat deze cognitieve aandoening ervoor zorgt dat AI-begeleiding ons niet kan ontgaan. Dat is niet ideaal, aangezien AI-systemen tegenwoordig vaak worden gepitcht als ondersteunende systemen die de menselijke besluitvorming vergroten in plaats van autonome systemen die zonder toezicht werken. Robo-hulp betekent niet veel als we het niet accepteren.

“Dit is een bijzonder belangrijke metacognitieve vooroordeel om te begrijpen in de context van menselijke AI-besluitvorming, aangezien men intuïtief kan begrijpen hoe opgeblazen zelfbeoordelingen en illusoire superioriteit ten opzichte van een AI-systeem kunnen resulteren in overdreven vertrouwen op zichzelf of onvoldoende vertrouwen in AI. advies”, stellen He, Kuiper en Gadiraju in hun paper, waaraan voorwaardelijk is voldaan CHI2023. "Dit kan menselijk gedrag vertroebelen in hun interactie met AI-systemen."

Om dit te testen, vroegen de onderzoekers 249 mensen om een ​​reeks meerkeuzevragen te beantwoorden om hun redenering te testen. De respondenten moesten eerst zelf vragen beantwoorden en daarna met behulp van een AI-assistent.

De vragen, beschikbaar in de onderzoeksproject GitHub-repository, bestond uit een reeks vragen zoals deze:

Arts: Toen ik ons ​​land vergeleek met twee andere landen met ongeveer dezelfde bevolkingsomvang, ontdekte ik dat hoewel we dezelfde voedings-, bacteriële en stressgerelateerde oorzaken van maagzweren hebben als zij, recepten voor maagzweren in alle sociaaleconomische lagen hier veel zeldzamer dan in die twee landen. Het is duidelijk dat we per hoofd van de bevolking aanzienlijk minder zweren hebben dan zij.

De deelnemers aan het onderzoek werd vervolgens gevraagd: Welke van de volgende, indien waar, versterkt het argument van de arts het meest?

  1. De twee landen die werden vergeleken met het land van de arts hadden onderling ongeveer dezelfde ulceracijfers.
  2. Het land van de arts heeft een veel beter systeem voor het rapporteren van het aantal recepten van een bepaald type dat elk jaar wordt verkregen dan in elk van de andere twee landen.
  3. Een persoon in het land van de arts die aan zweren lijdt, heeft evenveel kans om een ​​recept voor de aandoening te krijgen als iemand die aan zweren lijdt in een van de andere twee landen.
  4. Verscheidene andere landen die niet zijn opgenomen in de vergelijkingen van de arts hebben meer recepten voor maagzweermedicatie dan het land van de arts.

Nadat de respondenten hadden geantwoord, kregen ze dezelfde vragen te zien, evenals het door een AI-systeem aanbevolen antwoord (D voor de bovenstaande vraag), en kregen ze de kans om hun aanvankelijke antwoord te wijzigen. Deze aanpak, zeggen de onderzoekers, is geweest gevalideerd door eerder onderzoek [Pdf].

Op basis van de antwoorden die ze hebben ontvangen, concluderen de drie computerwetenschappers "dat DKE een negatieve invloed kan hebben op de afhankelijkheid van gebruikers van het AI-systeem..."

Maar het goede nieuws, als dat de juiste term is, is dat DKE geen lotsbestemming is. Ons wantrouwen jegens AI kan worden weggetraind.

"Om dergelijke cognitieve vooringenomenheid te verminderen, hebben we een tutorial-interventie geïntroduceerd, inclusief prestatiefeedback op taken, naast handmatig vervaardigde uitleg om het juiste antwoord te contrasteren met de fouten van de gebruikers", leggen de onderzoekers uit. "Experimentele resultaten geven aan dat een dergelijke interventie zeer effectief is bij het kalibreren van zelfevaluatie (significante verbetering), en een positief effect heeft op het verminderen van onderafhankelijkheid en het bevorderen van gepast vertrouwen (niet-significante resultaten)."

Maar als tutorials diegenen hielpen die overmoed (DKE) vertoonden, had correctieve heropvoeding het tegenovergestelde effect op degenen die aanvankelijk hun capaciteiten onderschatten: het maakte ze overmoedig of mogelijk afkerig van algoritmen - een bekend gevolg [PDF] van het zien van machines die fouten maken.

Al met al concluderen de onderzoekers dat er meer werk moet worden verzet om te begrijpen hoe menselijk vertrouwen in AI-systemen kan worden gevormd.

We doen er goed aan de woorden van HAL in herinnering te roepen, van 2001: A Space Odyssey.

Ik weet dat ik de laatste tijd een aantal zeer slechte beslissingen heb genomen, maar ik kan u de volledige verzekering geven dat mijn werk weer normaal zal zijn. Ik heb nog steeds het grootste enthousiasme en vertrouwen in de missie. En ik wil je helpen.

®

spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?