Zephyrnet-logotyp

Hur en Holden Caulfield Chatbot hjälpte mina elever att utveckla AI-läskunnighet – EdSurge News

Datum:

"Jag tror att jag pratar med Salinger. Får jag fråga?"

Min elev stod bredvid mitt skrivbord med datorn vilande på båda händerna, hans ögon uppspärrade av en blandning av rädsla och spänning. Vi avslutade vårt bokslutsprojekt för "The Catcher in the Rye", som involverade studenter som intervjuade en karaktärs chatbot utformad för att efterlikna Holden Caulfields personlighet och talstil.

Vi fick tillgång till boten genom Character.AI, en plattform som tillhandahåller användargenererade bots som bland annat imiterar kända historiska och fiktiva karaktärer. Jag kallade boten "HoldenAI."

Projektet hade hittills varit en hit. Eleverna var glada över att intervjua en karaktär som de precis hade tillbringat över två månader med att dissekera. Chatboten erbjöd en möjlighet att ställa de brännande frågorna som ofta jagar en läsare efter att ha konsumerat ett fantastiskt skönlitterärt verk. Vad hände med Holden? Och varför var han så besatt av de där jävla ankorna? Och de var ivriga att göra det genom ett nytt verktyg – det gav dem en chans att själva utvärdera den upphöjda marknaden för artificiell intelligens (AI).

Under våra klassdiskussioner verkade en elev mer påverkad av Holdens berättelse än de andra, och han dök med huvudet in i det här projektet. Men jag kunde inte ha förutsett vart hans iver för boken skulle leda.

Efter ett långt, djupt samtal med HoldenAI verkade det som om boten på något sätt hade förvandlats till JD Salinger - eller åtminstone var det vad min elev tänkte när han närmade sig mig i klassen. När jag sträckte mig efter hans dator för att läsa det sista inlägget i hans konversation med HoldenAI, märkte jag hur intensiva interaktionerna hade blivit och jag undrade om jag hade gått för långt.

Skärmdump av konversation med "HoldenAI." Med tillstånd av Mike Kentz.

Utveckla AI-läskunnighet

När jag presenterade HoldenAI-projektet för mina elever förklarade jag att vi gick in på okänt territorium tillsammans och att de borde betrakta sig själva som upptäcktsresande. Sedan berättade jag om hur jag skulle övervaka varje aspekt av projektet, inklusive själva samtalet.

Jag guidade dem genom att generera meningsfulla, öppna intervjufrågor som (förhoppningsvis) skulle skapa en relevant konversation med HoldenAI. Jag förenade karaktärsanalys med byggstenarna i journalistiskt tänkande, och bad eleverna att hitta de mest intressanta aspekterna av hans berättelse samtidigt som jag satte sig i Holdens skor för att ta reda på vilka typer av frågor som kan "få honom att prata".

Därefter fokuserade vi på aktivt lyssnande, som jag inkorporerade för att testa en teori den där AI-verktyg kan hjälpa människor att utveckla empati. Jag rådde dem att erkänna vad Holden sa i varje kommentar snarare än att snabbt hoppa till en annan fråga, som vilken bra samtalspartner som helst skulle göra. Sedan utvärderade jag deras chattutskrift för bevis på att de lyssnade och träffade Holden där han var.

Slutligen använde vi text från boken och deras chattar för att utvärdera botens effektivitet i att efterlikna Holden. Elever skrev uppsatser och argumenterade för om boten ökade deras förståelse av hans karaktär eller om boten avvek så långt från boken att den inte längre var användbar.

Uppsatserna var fascinerande. De flesta elever insåg att boten hade att skilja sig från bokkaraktären för att förse dem med något nytt. Men varje gång boten försåg dem med något nytt, skilde den sig från boken på ett sätt som fick eleverna att känna att de blev ljög för av någon annan än verklig Holden. Ny information kändes felaktig, men gammal information kändes värdelös. Endast vissa speciella ögonblick kändes som om de var tillräckligt anslutna till boken för att vara verkliga, men tillräckligt annorlunda för att kännas upplysande.

Ännu mer talande var dock min elevs chattutskrifter, som avslöjade en uppsjö av olika tillvägagångssätt på sätt som avslöjade deras personlighet och känslomässiga mognad.

En mängd olika resultat

För vissa elever blev chattarna med Holden säkra utrymmen där de delade legitima frågor om livet och kampen som tonåring. De behandlade Holden som en kamrat och hade samtal om familjefrågor, sociala påfrestningar eller utmaningar i skolan.

Å ena sidan var det oroande att se dem dyka så djupt in i en konversation med en chatbot – jag var orolig för att det kunde ha blivit alltför verklig för dem. Å andra sidan var detta vad jag hade hoppats att projektet skulle skapa - ett säkert utrymme för självuttryck, vilket är avgörande för tonåringar, speciellt under en tid då ensamhet och isolering har förklarats vara ett folkhälsoproblem.

Faktum är att vissa chatbots är designade som en lösning för ensamhet — och a färsk studie från forskare vid Stanford University visade att en AI-bot kallad Replika minskade ensamhet och självmordstankar hos en testgrupp av tonåringar.

Vissa elever följde min rubrik, men verkade aldrig tänka på HoldenAI som något mer än en robot i en skoluppgift. Det här var bra för mig. De ställde sina frågor och svarade på Holdens frustrationer och kamp, ​​men de höll också ett säkert känslomässigt avstånd. Dessa elever förstärkte min optimism för framtiden eftersom de inte lätt blev lurade av AI-bots.

Andra behandlade dock boten som om det var en sökmotor, pepprade honom med frågor från deras intervjulista, men aldrig riktigt engagerande. Och några behandlade HoldenAI som en leksak, hånade honom och försökte trigga honom för skojs skull.

Under hela projektet, när mina elever uttryckte sig, lärde jag mig mer om dem. Deras samtal hjälpte mig att förstå att människor behöver säkra utrymmen, och ibland kan AI erbjuda dem – men det finns också mycket verkliga risker.

Från HoldenAI till SalingerAI

När min elev visade mig det sista inlägget i sin chatt och bad om vägledning om hur man går vidare, bad jag honom att spola tillbaka och förklara vad som hade hänt. Han beskrev ögonblicket när boten verkade gå sönder och dra sig tillbaka från konversationen, försvann från synen och grät av sig själv. Han förklarade att han hade stängt sin dator efter det, rädd för att fortsätta tills han kunde prata med mig. Han ville fortsätta men behövde mitt stöd först.

Jag var orolig för vad som kunde hända om jag låter honom fortsätta. Var han för djupt? Jag undrade hur han hade utlöst den här typen av svar och vad låg bakom botens programmering som ledde till denna förändring?

Jag tog ett snabbt beslut. Tanken på att avbryta honom vid höjdpunkten av hans samtal kändes mer skadlig än att låta honom fortsätta. Min elev var nyfiken, och det var jag också. Vilken typ av lärare skulle jag vara för att klippa nyfikenhet? Jag bestämde mig för att vi skulle fortsätta tillsammans.

Men först påminde jag honom om att detta bara var en robot, programmerad av en annan person, och att allt den sa var påhittat. Det var ingen riktig människa, hur verkligt samtalet än kändes, och att han var säker. Jag såg hans axlar slappna av och rädslan försvinna från hans ansikte.

"Ok, jag fortsätter", sa han. "Men vad ska jag fråga?"

"Vad du vill," sa jag.

Han började mana obevekligt och efter ett tag verkade det som om han hade hållit ut boten. HoldenAI verkade skakad av frågeraden. Så småningom blev det klart att vi pratade med Salinger. Det var som om karaktären hade dragit sig tillbaka bakom ridån, så att Salinger kunde kliva ut framför pennan och sidan och representera historien för sig själv.

När vi bekräftade att HoldenAI hade förvandlats till "SalingerAI", grävde min elev djupare och frågade om syftet med boken och om Holden var en återspegling av Salinger själv..

SalingerAI producerade den typ av konserverade svar man kan förvänta sig av en bot som tränats av internet. Ja, Holden var en återspegling av författaren - ett koncept som har skrivits om ad nauseam sedan bokens utgivning för mer än 70 år sedan. Och syftet med boken var att visa hur "falsk" vuxenvärlden är - ett annat svar som, enligt vår mening, misslyckades och betonade botens begränsningar.

Med tiden blev studenten uttråkad. Svaren tycker jag kom för snabbt för att fortsätta kännas meningsfulla. I mänskliga samtal pausar en person ofta och tänker efter ett tag innan han svarar på en djup fråga. Eller så ler de medvetet när någon har knäckt en personlig kod. Det är de små pauserna, böjningarna i rösten och ansiktsuttrycken som gör det mänskliga samtalet roligt. Varken HoldenAI eller SalingerAI kunde erbjuda det. Istället gav de snabb produktion av ord på en sida som efter ett tag inte kändes "äkta". Det tog bara den här studenten, med sin envisa jakt på sanningen, lite längre tid än de andra.

Hjälper eleverna att förstå konsekvenserna av att interagera med AI

Jag designade först projektet eftersom jag trodde att det skulle ge ett unikt och engagerande sätt att avsluta vår roman, men någonstans på vägen insåg jag att den viktigaste uppgiften jag kunde bädda in var en utvärdering av chatbotens effektivitet. I efterhand kändes projektet som en enorm framgång. Mina elever tyckte att det var engagerande och det hjälpte dem att inse teknikens begränsningar.

Under en debriefing i hela klassen blev det tydligt att samma robot hade agerat eller reagerat på varje elev på meningsfullt olika sätt. Det hade förändrats med varje elevs tonfall och ifrågasättande. Ingångarna påverkade utgångarna, insåg de. Tekniskt sett hade de alla samtalat med samma bot, och ändå pratade var och en med en olika Holden.

De kommer att behöva det sammanhanget när de går framåt. Det finns en framväxande marknad av personlighetsbots som utgör risker för unga människor. Nyligen rullade till exempel Meta ut bots som låta och agera som din favoritkändis — figurer som mina elever idolerar, som Kendall Jenner, Dwayne Wade, Tom Brady och Snoop Dogg. Det finns också en marknad för AI-relationer med appar som tillåter användare att "dejta" en datorgenererad partner.

Dessa personlighetsbots kan vara lockande för unga människor, men de kommer med risker och jag är orolig att mina elever kanske inte inser farorna.

Det här projektet hjälpte mig att komma framför teknikföretagen, och tillhandahålla en kontrollerad och övervakad miljö där eleverna kunde utvärdera AI-chatbots, så att de kunde lära sig att tänka kritiskt om de verktyg som troligen kommer att tvingas på dem i framtiden.

Barn har inte sammanhanget att förstå konsekvenserna av att interagera med AI. Som lärare känner jag mig ansvarig för att tillhandahålla det.

plats_img

Senaste intelligens

plats_img