Zephyrnet-logotyp

Människor som regelbundet pratar med AI-chatbotar börjar ofta tro att de är kännande, säger VD

Datum:

I korthet Många människor börjar tro att de interagerar med något kännande när de pratar med AI-chatbots, enligt VD:n för Replika, en app som låter användare designa sina egna virtuella följeslagare.

Människor kan anpassa hur deras chatbots ser ut och betala för extrafunktioner som vissa personlighetsdrag på Replika. Miljontals har laddat ner appen och många chattar regelbundet med sina påhittade bots. Vissa börjar till och med tro att deras digitala kompisar är verkliga enheter som är kännande.

"Vi pratar inte om galna människor eller människor som hallucinerar eller har vanföreställningar," företagets grundare och VD, Eugenia Kuyda, berättade Reuters. "De pratar med AI och det är den erfarenhet de har."

En Google-ingenjör skapade rubriker förra månaden när han sa att han trodde att en av företagets språkmodeller var medveten. Blake Lemoine blev till stor del förlöjligad, men han verkar inte vara ensam om att antropomorfisera AI.

Dessa system är dock inte kännande, utan lurar istället människor att tro att de har viss intelligens. De härmar språket och sätter upp det lite slumpmässigt utan att ha någon förståelse för språket eller den värld de beskriver.

Ändå sa Kuyda att människor kan påverkas av tekniken.

"Vi måste förstå att [detta] existerar, precis som människor tror på spöken," sa Kuyda. "Människor bygger relationer och tror på något."

EU borde förbjuda AI lögndetektorer, säger aktivister

Europeiska unionens AI Act, ett förslag för att reglera tekniken, diskuteras fortfarande och vissa experter kräver ett förbud mot automatiska lögndetektorer.

Privata företag tillhandahåller tekniken till regeringstjänstemän att använda vid gränserna. AI-algoritmer upptäcker och analyserar saker som en persons ögonrörelser, ansiktsuttryck och ton för att försöka urskilja om någon kanske inte talar sanning. Men aktivister och juridiska experter anser att det borde förbjudas i EU enligt den kommande AI-lagen.

"Du måste bevisa att du är en flykting, och du antas vara en lögnare om inte annat bevisas," Petra Molnar, biträdande direktör för det ideella Refugee Law Lab, berättade Trådbundet. "Den logiken ligger till grund för allt. Det stödjer AI lögndetektorer, och det stödjer mer övervakning och pushback vid gränser.”

Att försöka upptäcka om någon kanske ljuger med hjälp av visuella och fysiska ledtrådar är inte precis en vetenskap. Standard polygraftester är skakiga, och det är inte klart att användning av mer automatiserade metoder nödvändigtvis betyder att det är mer exakt. Att använda sådan riskabel teknik på utsatta människor som flyktingar är inte idealiskt.

Kan AI verkligen säga hur gammal du ser ut?

Överraskning, överraskning – AI-algoritmer utformade för att förutsäga någons ålder från bilder är inte alltid korrekta.

I ett försök att slå ner på unga användare som ljuger om deras ålder på sociala medieplattformar, meddelade Meta att de arbetade med Yoti, en datorvisionstartup, för att verifiera människors ålder. De som manuellt ändrar sitt födelsedatum för att registrera sig som över 18 har möjlighet att ladda upp en videoselfie, och Yotis teknik används sedan för att förutsäga om de ser tillräckligt mogna ut.

Men dess algoritmer är inte alltid korrekta. Reportrar från CNN, som testade en onlinedemo av en annan version av programvaran på sina egna ansikten, fann att resultaten var hit or miss. Yotis algoritmer förutspådde ett korrekt målåldersintervall för vissa, men i ett fall försvann med flera år – att förutspå att någon såg ut 17-21 när de faktiskt var i mitten av 30-årsåldern.

Systemet som analyserar videor från Meta-användare kämpar enligt uppgift mer med att uppskatta åldrarna på tonåringar från 13 till 17 som har mörkare hudtoner. Det är knepigt för människor att gissa någons ålder bara genom att titta på dem, och maskiner klarar sig förmodligen inte mycket bättre. ®

plats_img

Senaste intelligens

plats_img