Zephyrnet-logotyp

Hur att studera djurförnimmelser kunde hjälpa till att lösa det etiska pusslet med Sentient AI

Datum:

Artificiell intelligens har utvecklats så snabbt att även några av de forskare som är ansvariga för många nyckelutvecklingar är bekymrade över förändringstakten. Tidigare i år utfärdade mer än 300 yrkesverksamma inom AI och andra berörda offentliga personer ett trubbig varning om faran som tekniken utgör, att jämföra risken med den för pandemier eller kärnvapenkrig.

Just under ytan av dessa bekymmer lurar frågan om maskinmedvetande. Även om det inte finns "ingen hemma" i dagens AI:er, undrar vissa forskare om de en dag kan uppvisa en glimt av medvetande - eller mer. Om det händer kommer det att väcka en mängd moraliska och etiska problem, säger Jonathan Birch, professor i filosofi vid London School of Economics and Political Science.

När AI-tekniken tar steg framåt har etiska frågor som väckts av interaktioner mellan människa och AI blivit brådskande. "Vi vet inte om vi ska föra in dem i vår moraliska cirkel eller utesluta dem," sa Birch. – Vi vet inte vad konsekvenserna kommer att bli. Och det tar jag på allvar som en genuin risk som vi borde börja prata om. Inte riktigt för att jag tror ChatGPT är i den kategorin, men för att jag inte vet vad som kommer att hända de kommande 10 eller 20 åren.”

Under tiden, säger han, kan vi göra klokt i att studera andra icke-mänskliga sinnen - som djurens. Björk leder universitetets Projektet Foundations of Animal Sentience, en EU-finansierad ansträngning som "syftar till att försöka göra några framsteg i de stora frågorna om djurs förnimmelse", som Birch uttryckte det. ”Hur utvecklar vi bättre metoder för att vetenskapligt studera djurens medvetna upplevelser? Och hur kan vi få den framväxande vetenskapen om djurförnimmelse att fungera, för att utforma bättre policyer, lagar och sätt att ta hand om djur?”

Vår intervju genomfördes över Zoom och via e-post, och har redigerats för längd och tydlighet.

(Den här artikeln publicerades ursprungligen den Undark. Läs ursprungliga artikeln.)

Omörkt: Det har pågått en debatt om huruvida AI kan vara medveten eller kännande. Och det verkar finnas en parallell fråga om AI kan verka att vara kännande. Varför är den skillnaden så viktig?

Jonathan Birch: Jag tror att det är ett stort problem, och något som borde göra oss ganska rädda, faktiskt. Redan nu är AI-system ganska kapabla att övertyga sina användare om deras sinne. Vi såg det förra året med fallet Blake Lemoine, Googles ingenjör som blev övertygad att systemet han arbetade på var sentient – ​​och det är just när utdata är rent text, och när användaren är en mycket skicklig AI-expert.

Så föreställ dig bara en situation där AI kan kontrollera ett mänskligt ansikte och en mänsklig röst och användaren är oerfaren. Jag tror att AI redan är i en position där den kan övertyga ett stort antal människor om att det är en kännande varelse ganska lätt. Och det är ett stort problem, för jag tror att vi kommer att börja se människor som kampanjar för AI-välfärd, AI-rättigheter, och sådana saker.

Och vi vet inte vad vi ska göra åt det här. För det vi vill ha är ett riktigt starkt knockdown-argument som bevisar att AI-systemen de pratar om är inte medveten. Och det har vi inte. Vår teoretiska förståelse av medvetande är inte tillräckligt mogen för att vi med säkerhet ska kunna förklara dess frånvaro.

UD: En robot eller ett AI-system kan programmeras att säga något i stil med, "Sluta med det, du skadar mig." Men en enkel deklaration av det slaget räcker inte för att fungera som ett lackmustest för sinne, eller hur?

J B: Du kan ha väldigt enkla system [som de] utvecklade vid Imperial College London för att hjälpa läkare med deras utbildning efterlikna mänskliga smärtuttryck. Och det finns absolut ingen som helst anledning att tro att dessa system är kännande. De känner inte riktigt smärta; allt de gör är att mappa ingångar till utgångar på ett mycket enkelt sätt. Men smärtuttrycken de producerar är ganska verklighetstrogna.

Jag tror att vi är i en något liknande situation med chatbots som ChatGPT – att de tränas på över en biljon ord med träningsdata för att efterlikna en människas svarsmönster för att svara på ett sätt som en människa skulle svara.

Så, naturligtvis, om du ger den en uppmaning som en människa skulle svara på genom att uttrycka smärta, kommer den att kunna efterlikna det svaret skickligt.

Men jag tror att när vi vet att det är situationen – när vi vet att vi har att göra med skicklig mimik – så finns det ingen stark anledning att tro att det finns någon verklig smärtupplevelse bakom det.

UD: Den här enheten som läkarstudenterna tränar på, jag antar att det är något som liknar en robot?

J B: Det stämmer, ja. Så de har en dummy-liknande sak, med ett mänskligt ansikte, och läkaren kan trycka på armen och få ett uttryck som efterliknar de uttryck som människor skulle ge för olika grader av tryck. Det är för att hjälpa läkare att lära sig hur man utför tekniker på patienter på lämpligt sätt utan att orsaka för mycket smärta.

Och vi blir väldigt lätta intagna så fort något har ett mänskligt ansikte och gör uttryck som en människa skulle göra, även om det inte finns någon riktig intelligens bakom det alls.

Så om du föreställer dig att vara ihopkopplad med den typ av AI som vi ser i ChatGPT, har du en sorts mimik som verkligen är mycket övertygande, och som kommer att övertyga många människor.

UD: Sentience verkar vara något vi känner från insidan, så att säga. Vi förstår vår egen känsla – men hur skulle du testa för känsla hos andra, oavsett om det är en AI eller någon annan enhet bortom en själv?

J B: Jag tror att vi har en väldigt stark position med andra människor, som kan prata med oss, för där har vi en otroligt rik mängd bevis. Och den bästa förklaringen till det är att andra människor har medvetna upplevelser, precis som vi. Och så kan vi använda denna typ av slutledning som filosofer ibland kallar "slutledning till den bästa förklaringen."

Jag tror att vi kan närma oss ämnet andra djur på exakt samma sätt - att andra djur inte pratar med oss, men de visar beteenden som är väldigt naturligt förklarade genom att tillskriva tillstånd som smärta. Till exempel, om du ser en hund slicka sina sår efter en skada, vårda det området, lära dig att undvika platser där den riskerar att skadas, skulle du naturligtvis förklara detta beteendemönster genom att ange ett smärttillstånd.

Och jag tror att när vi har att göra med andra djur som har nervsystem som är ganska lika vårt eget, och som har utvecklats precis som vi har, tycker jag att den typen av slutsatser är helt rimliga.

UD: Vad sägs om ett AI-system?

J B: I AI-fallet har vi ett enormt problem. Vi har först och främst problemet att substrat är annorlunda. Vi vet inte riktigt om medveten upplevelse är känslig för substratet – måste den ha ett biologiskt substrat, det vill säga ett nervsystem, en hjärna? Eller är det något som kan uppnås i ett helt annat material - ett kiselbaserat substrat?

Men det finns också problemet som jag har kallat "spelproblemet" – att när systemet har tillgång till biljoner ord med träningsdata och har tränats med målet att efterlikna mänskligt beteende, kan de typer av beteendemönster det producerar. förklaras av att det verkligen har den medvetna upplevelsen. Eller, alternativt, kan de bara förklaras av att det är satt som mål att bete sig som en människa skulle svara i den situationen.

Så jag tror verkligen att vi har problem i AI-fallet, eftersom vi sannolikt inte kommer att hamna i en position där det helt klart är den bästa förklaringen till det vi ser – att AI:n är medveten. Det kommer alltid att finnas rimliga alternativa förklaringar. Och det är en väldigt svår bindning att ta sig ur.

UD: Vad tror du kan vara vårt bästa val för att skilja mellan något som faktiskt är medvetet kontra en enhet som bara har utseende av förnuft?

J B: Jag tror att det första steget är att erkänna det som ett mycket djupt och svårt problem. Det andra steget är att försöka lära oss så mycket vi kan av andra djurs fall. Jag tror att när vi studerar djur som är ganska nära oss, i evolutionära termer, som hundar och andra däggdjur, blir vi alltid osäkra på om medveten upplevelse kan bero på mycket specifika hjärnmekanismer som är utmärkande för däggdjurshjärnan.

För att komma förbi det måste vi titta på ett så brett utbud av djur som vi kan. Och vi måste särskilt tänka på ryggradslösa djur, som bläckfiskar och insekter, där detta potentiellt är en annan självständigt utvecklad instans av medveten upplevelse. Precis som en bläckfisks öga har utvecklats helt separat från våra egna ögon – det har denna fascinerande blandning av likheter och skillnader – tror jag att dess medvetna upplevelser också kommer att vara så: självständigt utvecklat, lika på något sätt, väldigt, väldigt olika i andra sätt.

Och genom att studera upplevelserna av ryggradslösa djur som bläckfiskar, kan vi börja få lite grepp om vad de riktigt djupa egenskaperna är som en hjärna måste ha för att stödja medvetna upplevelser, saker som går djupare än att bara ha dessa specifika hjärnstrukturer som är där hos däggdjur. Vilken typ av beräkning behövs? Vilken typ av bearbetning?

Sedan – och jag ser det här som en strategi på lång sikt – kan vi kanske gå tillbaka till AI-fallet och säga, ja, har det de speciella typerna av beräkningar som vi hittar hos medvetna djur som däggdjur och bläckfiskar?

UD: Tror du att vi en dag kommer att skapa kännande AI?

J B: Jag är ungefär 50:50 på detta. Det finns en chans att känslor beror på speciella egenskaper hos en biologisk hjärna, och det är inte klart hur man testar om det gör det. Så jag tror att det alltid kommer att finnas betydande osäkerhet i AI. Jag är mer säker på detta: Om medvetandet kan i princip uppnås i datorprogram, så kommer AI-forskare att hitta ett sätt att göra det.

Image Credit: Cash Macanaya / Unsplash 

plats_img

Senaste intelligens

plats_img