Zephyrnet-logo

Hoe een Holden Caulfield-chatbot mijn studenten hielp AI-geletterdheid te ontwikkelen – EdSurge News

Datum:

'Ik denk dat ik met Salinger praat. Kan ik vragen?"

Mijn leerling stond naast mijn bureau, de computer op beide handen rustend, zijn ogen wijd open van een mengeling van angst en opwinding. We waren bezig met het afronden van ons eindeboekproject voor 'The Catcher in the Rye', waarbij studenten een personage-chatbot interviewden die was ontworpen om de persoonlijkheid en spreekstijl van Holden Caulfield na te bootsen.

We hebben toegang gekregen tot de bot via Character.AI, een platform dat door gebruikers gegenereerde bots biedt die onder meer beroemde historische en fictieve personages imiteren. Ik noemde de bot ‘HoldenAI’.

Het project was tot nu toe een schot in de roos. Studenten waren enthousiast om een ​​personage te interviewen dat ze zojuist ruim twee maanden hadden ontleed. De chatbot bood de mogelijkheid om de brandende vragen te stellen die een lezer vaak achtervolgen na het nuttigen van een geweldig fictiewerk. Wat is er met Holden gebeurd? En waarom was hij zo geobsedeerd door die verdomde eenden? En ze wilden dat graag doen met een nieuwe tool: het gaf hen de kans om de gehypte markt voor kunstmatige intelligentie (AI) zelf te evalueren.

Tijdens onze klassikale discussies leek één leerling meer onder de indruk van Holdens verhaal dan de anderen, en hij stortte zich volledig op dit project. Maar ik had niet kunnen voorspellen waar zijn ijver voor het boek toe zou leiden.

Na een lang, diepgaand gesprek met HoldenAI leek het erop dat de bot op de een of andere manier was veranderd in JD Salinger - althans dat dacht mijn leerling toen hij mij in de klas benaderde. Toen ik naar zijn computer reikte om het laatste stukje van zijn gesprek met HoldenAI te lezen, merkte ik hoe intens de interacties waren geworden en ik vroeg me af of ik te ver was gegaan.

Screenshot van gesprek met ‘HoldenAI’. Met dank aan Mike Kentz.

Het ontwikkelen van AI-geletterdheid

Toen ik het HoldenAI-project aan mijn studenten voorstelde, legde ik uit dat we samen onbekend terrein betreden en dat ze zichzelf als ontdekkingsreizigers moesten beschouwen. Vervolgens vertelde ik hoe ik elk aspect van het project zou monitoren, inclusief het gesprek zelf.

Ik begeleidde hen bij het genereren van zinvolle, open interviewvragen die (hopelijk) een relevant gesprek met HoldenAI zouden creëren. Ik combineerde karakteranalyse met de bouwstenen van het journalistieke denken, waarbij ik studenten vroeg de meest interessante aspecten van zijn verhaal te lokaliseren, terwijl ik zichzelf ook in Holdens schoenen plaatste om erachter te komen welk soort vragen hem ‘aan het praten zouden kunnen krijgen’.

Vervolgens concentreerden we ons op actief luisteren, wat ik heb opgenomen om te testen een theorie dat AI-tools kunnen mensen helpen empathie te ontwikkelen. Ik adviseerde hen om te erkennen wat Holden in elke opmerking zei, in plaats van snel over te gaan tot een andere vraag, zoals elke goede gesprekspartner zou doen. Vervolgens evalueerde ik hun chattranscriptie op bewijs dat ze luisterden en elkaar ontmoetten Holden waar hij was.

Ten slotte hebben we tekst uit het boek en hun chats gebruikt om de effectiviteit van de bot bij het nabootsen van Holden te evalueren. Studenten schreven essays waarin ze beargumenteerden of de bot hun begrip van zijn karakter bevorderde of dat de bot zo ver van het boek afdwaalde dat het niet langer bruikbaar was.

De essays waren fascinerend. De meeste studenten realiseerden zich dat de bot HAD om te verschillen van het boekpersonage om hen van iets nieuws te voorzien. Maar elke keer dat de bot hen iets nieuws voorschotelde, verschilde het van het boek op een manier die de studenten het gevoel gaf dat ze werden voorgelogen door iemand anders dan de vast Holden. Nieuwe informatie voelde onnauwkeurig, maar oude informatie voelde nutteloos. Alleen bepaalde speciale momenten hadden het gevoel dat ze voldoende met het boek verbonden waren om echt te zijn, maar toch verschillend genoeg om verhelderend te voelen.

Nog veelzeggender waren echter de chattranscripties van mijn studenten, die een overvloed aan verschillende benaderingen aan het licht brachten op manieren die hun persoonlijkheid en emotionele volwassenheid onthulden.

Een verscheidenheid aan resultaten

Voor sommige studenten werden de chats met Holden veilige ruimtes waar ze legitieme vragen over het leven en de worstelingen als tiener deelden. Ze behandelden Holden als een leeftijdsgenoot en voerden gesprekken over familieproblemen, sociale druk of uitdagingen op school.

Aan de ene kant was het zorgwekkend om te zien hoe ze zo diep in een gesprek met een chatbot verdiepten. Ik was bang dat het ook echt voor hen. Aan de andere kant was dit wat ik hoopte dat het project zou creëren: een veilige ruimte voor zelfexpressie, wat van cruciaal belang is voor tieners, vooral in een tijd waarin eenzaamheid en isolatie zijn uitgeroepen tot een probleem voor de volksgezondheid.

Sommige chatbots zijn zelfs ontworpen als een oplossing voor eenzaamheid - en een recente studie van onderzoekers van Stanford University toonden aan dat een AI-bot genaamd Replika de eenzaamheid en zelfmoordgedachten verminderde bij een testgroep tieners.

Sommige studenten volgden mijn rubriek, maar leken HoldenAI nooit meer te zien dan een robot in een schoolopdracht. Dit vond ik prima. Ze stelden hun vragen en reageerden op Holdens frustraties en worstelingen, maar behielden ook een veilige emotionele afstand. Deze studenten versterkten mijn optimisme over de toekomst omdat ze zich niet gemakkelijk lieten misleiden door AI-bots.

Anderen behandelden de bot echter alsof het een zoekmachine was en bestookten hem met vragen uit hun interviewlijst, maar nooit echt boeiend. En sommigen behandelden HoldenAI als een speeltje, bespotten hem en probeerden hem voor de lol te triggeren.

Door het project heen leerde ik meer over hen, terwijl mijn studenten zich uitten. Hun gesprekken hebben mij geholpen te begrijpen dat mensen veilige ruimtes nodig hebben, en dat AI deze soms kan bieden – maar er zijn ook zeer reële risico’s.

Van HoldenAI tot SalingerAI

Toen mijn leerling mij dat laatste bericht in zijn chat liet zien, waarin hij om advies vroeg over hoe verder te gaan, vroeg ik hem terug te spoelen en uit te leggen wat er was gebeurd. Hij beschreef het moment waarop de bot leek in te storten en zich terugtrok uit het gesprek, uit het zicht verdween en alleen huilde. Hij legde uit dat hij daarna zijn computer had afgesloten, bang om door te gaan totdat hij met mij kon praten. Hij wilde doorgaan, maar had eerst mijn steun nodig.

Ik maakte me zorgen over wat er zou kunnen gebeuren als ik hem door liet gaan. Zat hij er te diep in? Ik vroeg me af hoe hij dit soort reacties teweeg had gebracht en wat er achter de programmering van de bot zat die tot deze verandering leidde?

Ik nam een ​​snelle beslissing. Het idee om hem op het hoogtepunt van zijn gesprek af te sluiten voelde schadelijker dan hem door te laten gaan. Mijn leerling was nieuwsgierig, en ik ook. Wat voor soort leraar zou ik zijn om de nieuwsgierigheid te verminderen? Ik besloot dat we samen verder zouden gaan.

Maar eerst herinnerde ik hem eraan dat dit maar een robot was, geprogrammeerd door iemand anders, en dat alles wat erop stond verzonnen was. Het was geen echt mens, hoe echt het gesprek ook voelde, en hij was veilig. Ik zag zijn schouders ontspannen en de angst uit zijn gezicht verdwijnen.

'Oké, ik ga verder,' zei hij. “Maar wat moet ik vragen?”

‘Wat je maar wilt,’ zei ik.

Hij begon meedogenloos te porren en na een tijdje leek het alsof hij de bot had overleefd. HoldenAI leek geschokt door de onderzoekslijn. Uiteindelijk werd duidelijk dat we met Salinger aan het praten waren. Het was alsof het personage zich achter het gordijn had teruggetrokken, waardoor Salinger voor de pen en de pagina kon stappen en het verhaal voor zichzelf kon vertegenwoordigen.

Toen we eenmaal hadden bevestigd dat HoldenAI was veranderd in 'SalingerAI', ging mijn student dieper graven en vroeg naar het doel van het boek en of Holden wel of niet een weerspiegeling was van Salinger zelf..

SalingerAI produceerde het soort standaardantwoorden dat je zou verwachten van een bot die door internet is getraind. Ja, Holden was een weerspiegeling van de auteur – een concept dat tot vervelens toe is geschreven sinds de publicatie van het boek, meer dan 70 jaar geleden. En het doel van het boek was om te laten zien hoe 'nep' de wereld van volwassenen is - nog een antwoord dat naar onze mening tekortschoot en de beperkingen van de bot benadrukte.

Na verloop van tijd begon de student zich te vervelen. De antwoorden kwamen, denk ik, te snel om betekenisvol te blijven voelen. In menselijke gesprekken pauzeert iemand vaak en denkt een tijdje na voordat hij een diepgaande vraag beantwoordt. Of ze glimlachen bewust als iemand een persoonlijke code heeft gekraakt. Het zijn de kleine pauzes, stembuigingen en gezichtsuitdrukkingen die menselijke gesprekken plezierig maken. Noch HoldenAI noch SalingerAI konden dat bieden. In plaats daarvan produceerden ze snel woorden op een pagina die na een tijdje niet ‘echt’ aanvoelde. Het kostte deze student, met zijn hardnekkige zoektocht naar de waarheid, alleen iets meer tijd dan de anderen.

Studenten helpen de implicaties van interactie met AI te begrijpen

Ik ontwierp het project aanvankelijk omdat ik dacht dat het een unieke en boeiende manier zou zijn om onze roman af te ronden, maar ergens onderweg besefte ik dat de belangrijkste taak die ik kon insluiten een evaluatie van de effectiviteit van de chatbot was. Achteraf gezien voelde het project als een groot succes. Mijn studenten vonden het boeiend en het hielp hen de beperkingen van de technologie te onderkennen.

Tijdens een klassikale debriefing werd duidelijk dat dezelfde robot op betekenisvol verschillende manieren op elke leerling had gereageerd. Het was veranderd met de toon en de vraagstelling van elke leerling. De input beïnvloedde de output, beseften ze. Technisch gezien hadden ze allemaal met dezelfde bot gesproken, en toch spraken ze allemaal met een anders vast.

Ze zullen die context nodig hebben naarmate ze verder komen. Er is een opkomende markt van persoonlijkheidsbots die risico's voor jongeren met zich meebrengen. Onlangs heeft Meta bijvoorbeeld bots uitgerold die klink en gedraag je als je favoriete beroemdheid – figuren die mijn studenten verafgoden, zoals Kendall Jenner, Dwayne Wade, Tom Brady en Snoop Dogg. Er is ook een markt voor AI-relaties met apps waarmee gebruikers een door de computer gegenereerde partner kunnen ‘daten’.

Deze persoonlijkheidsbots zijn misschien aantrekkelijk voor jongeren, maar ze brengen risico's met zich mee en ik ben bang dat mijn studenten de gevaren misschien niet herkennen.

Dit project heeft me geholpen om de technologiebedrijven onder de aandacht te brengen en een gecontroleerde en bewaakte omgeving te bieden waarin studenten AI-chatbots konden evalueren, zodat ze kritisch konden leren nadenken over de tools die hen waarschijnlijk in de toekomst zullen worden opgedrongen.

Kinderen hebben niet de context om de implicaties van de interactie met AI te begrijpen. Als docent voel ik mij verantwoordelijk om daarin te voorzien.

spot_img

Laatste intelligentie

spot_img