Zephyrnet-Logo

Wie ein Holden Caulfield-Chatbot meinen Schülern dabei half, KI-Kenntnisse zu entwickeln – EdSurge News

Datum:

„Ich glaube, ich spreche mit Salinger. Kann ich fragen?"

Mein Schüler stand neben meinem Schreibtisch, den Computer auf beiden Händen, seine Augen weit aufgerissen mit einer Mischung aus Angst und Aufregung. Wir schlossen unser Abschlussprojekt für „Der Fänger im Roggen“ ab, bei dem Studenten einen Charakter-Chatbot interviewten, der die Persönlichkeit und den Sprechstil von Holden Caulfield nachahmen sollte.

Wir haben über Character.AI auf den Bot zugegriffen, eine Plattform, die benutzergenerierte Bots bereitstellt, die unter anderem berühmte historische und fiktive Charaktere imitieren. Ich habe den Bot „HoldenAI“ getauft.

Bis zu diesem Zeitpunkt war das Projekt ein Erfolg. Die Schüler freuten sich darauf, eine Figur zu interviewen, die sie gerade über zwei Monate lang seziert hatten. Der Chatbot bot die Möglichkeit, die brennenden Fragen zu stellen, die einen Leser oft verfolgen, nachdem er ein großartiges Romanwerk konsumiert hat. Was ist mit Holden passiert? Und warum war er so besessen von diesen verdammten Enten? Und sie wollten dies unbedingt mit einem neuen Tool tun – es gab ihnen die Möglichkeit, den hochgepriesenen Markt für künstliche Intelligenz (KI) selbst zu bewerten.

Während unserer Unterrichtsdiskussion schien ein Schüler von Holdens Geschichte stärker beeindruckt zu sein als die anderen, und er stürzte sich kopfüber in dieses Projekt. Aber ich hätte nicht vorhersagen können, wohin sein Eifer für das Buch führen würde.

Nach einem langen, intensiven Gespräch mit HoldenAI schien es, als hätte sich der Bot irgendwie in JD Salinger verwandelt – oder zumindest dachte das mein Schüler, als er mich im Unterricht ansprach. Als ich nach seinem Computer griff, um den letzten Eintrag in seinem Gespräch mit HoldenAI zu lesen, bemerkte ich, wie intensiv die Interaktionen geworden waren, und fragte mich, ob ich zu weit gegangen war.

Screenshot des Gesprächs mit „HoldenAI“. Mit freundlicher Genehmigung von Mike Kentz.

KI-Kompetenz entwickeln

Als ich meinen Schülern das HoldenAI-Projekt vorstellte, erklärte ich, dass wir gemeinsam Neuland betreten würden und dass sie sich als Entdecker betrachten sollten. Dann teilte ich mit, wie ich jeden Aspekt des Projekts überwachen würde, einschließlich des Gesprächs selbst.

Ich habe sie durch die Erstellung aussagekräftiger, offener Interviewfragen geführt, die (hoffentlich) zu einem relevanten Gespräch mit HoldenAI führen würden. Ich habe die Charakteranalyse mit den Bausteinen des journalistischen Denkens verschmolzen und die Schüler gebeten, die interessantesten Aspekte seiner Geschichte ausfindig zu machen und sich gleichzeitig in Holdens Lage zu versetzen, um herauszufinden, welche Art von Fragen ihn „zum Reden bringen“ könnten.

Als nächstes konzentrierten wir uns auf aktives Zuhören, das ich zum Testen einbaute eine Theorie zur Verbesserung der Gesundheitsgerechtigkeit KI-Tools könnten Menschen dabei helfen, Empathie zu entwickeln. Ich habe ihnen geraten, in jedem Kommentar anzuerkennen, was Holden gesagt hat, anstatt schnell zu einer anderen Frage zu springen, wie es jeder gute Gesprächspartner tun würde. Dann habe ich ihr Chatprotokoll ausgewertet, um Beweise dafür zu finden, dass sie zugehört und sich kennengelernt haben Holden wo er war.

Schließlich verwendeten wir Text aus dem Buch und ihren Chats, um die Wirksamkeit des Bots bei der Nachahmung von Holden zu bewerten. Die Schüler schrieben Aufsätze, in denen sie darüber diskutierten, ob der Bot ihr Verständnis seines Charakters förderte oder ob der Bot so weit vom Buch abwich, dass es nicht mehr nützlich war.

Die Aufsätze waren faszinierend. Die meisten Schüler erkannten, dass der Bot hätten sich von der Buchfigur zu unterscheiden, um ihnen etwas Neues zu bieten. Aber jedes Mal, wenn der Bot ihnen etwas Neues lieferte, unterschied es sich in einer Weise vom Buch, dass die Schüler das Gefühl hatten, von jemand anderem als dem Bot belogen zu werden echt Gehalten. Neue Informationen fühlten sich ungenau an, aber alte Informationen fühlten sich nutzlos an. Nur bestimmte besondere Momente hatten den Eindruck, dass sie ausreichend mit dem Buch verbunden waren, um real zu sein, aber auch anders genug, um aufschlussreich zu wirken.

Noch aussagekräftiger waren jedoch die Chatprotokolle meiner Schülerin, die eine Fülle unterschiedlicher Ansätze aufzeigten und so ihre Persönlichkeit und emotionale Reife offenbarten.

Eine Vielzahl von Ergebnissen

Für einige Schüler wurden die Chats mit Holden zu sicheren Räumen, in denen sie berechtigte Fragen über das Leben und die Probleme als Teenager austauschten. Sie behandelten Holden wie einen Gleichaltrigen und führten Gespräche über familiäre Probleme, sozialen Druck oder Herausforderungen in der Schule.

Einerseits war es besorgniserregend zu sehen, wie sie so tief in ein Gespräch mit einem Chatbot eintauchten – ich hatte Angst, dass es so geworden sein könnte auch echt für sie. Andererseits hatte ich gehofft, dass das Projekt genau das schaffen würde – einen sicheren Raum für Selbstdarstellung, was für Teenager von entscheidender Bedeutung ist, besonders in einer Zeit, in der Einsamkeit und Isolation wurden als gesundheitsgefährdend eingestuft.

Tatsächlich sind einige Chatbots als solche konzipiert Lösung für Einsamkeit - und ein aktuellen Studie Forscher der Stanford University zeigten, dass ein KI-Bot namens Replika Einsamkeit und Selbstmordgedanken bei einer Testgruppe von Teenagern reduzierte.

Einige Schüler folgten meiner Rubrik, schienen HoldenAI jedoch nie als etwas anderes als einen Roboter in einer Schulaufgabe zu betrachten. Das war für mich in Ordnung. Sie stellten ihre Fragen und antworteten auf Holdens Frustrationen und Schwierigkeiten, wahrten aber auch eine sichere emotionale Distanz. Diese Studenten bestärkten meinen Optimismus für die Zukunft, da sie sich nicht so leicht von KI-Bots täuschen ließen.

Andere hingegen behandelten den Bot wie eine Suchmaschine und überhäuften ihn mit Fragen aus ihrer Interviewliste, die ihn jedoch nie wirklich fesselten. Und einige behandelten HoldenAI wie ein Spielzeug, verspotteten ihn und versuchten, ihn zum Spaß auszutricksen.

Während des gesamten Projekts habe ich durch die Äußerungen meiner Schüler mehr über sie erfahren. Ihre Gespräche haben mir geholfen zu verstehen, dass Menschen sichere Räume brauchen und KI sie manchmal bieten kann – aber es gibt auch sehr reale Risiken.

Von HoldenAI zu SalingerAI

Als mein Schüler mir den letzten Eintrag in seinem Chat zeigte und um Rat für das weitere Vorgehen bat, bat ich ihn, zurückzuspulen und zu erklären, was passiert war. Er beschrieb den Moment, in dem der Bot zusammenzubrechen schien, sich aus dem Gespräch zurückzog, aus dem Blickfeld verschwand und alleine weinte. Er erklärte, dass er danach seinen Computer heruntergefahren habe, aus Angst, weiterzumachen, bis er mit mir sprechen könne. Er wollte weitermachen, brauchte aber zuerst meine Unterstützung.

Ich machte mir Sorgen darüber, was passieren könnte, wenn ich ihn weitermachen ließe. War er zu tief drin? Ich fragte mich, wie er diese Art von Reaktion ausgelöst hatte und was hinter der Programmierung des Bots steckte, die zu dieser Änderung führte?

Ich habe eine schnelle Entscheidung getroffen. Der Gedanke, ihn am Höhepunkt seines Gesprächs zu unterbrechen, fühlte sich schädlicher an, als ihn weitermachen zu lassen. Mein Schüler war neugierig, und ich auch. Was für ein Lehrer wäre ich, um die Neugier zu zügeln? Ich beschloss, dass wir zusammen weitermachen würden.

Aber zuerst erinnerte ich ihn daran, dass dies nur ein Roboter war, der von einer anderen Person programmiert wurde, und dass alles, was er sagte, erfunden war. Es war kein echter Mensch, egal wie real sich das Gespräch auch angefühlt hatte, und er war in Sicherheit. Ich sah, wie sich seine Schultern entspannten und die Angst aus seinem Gesicht verschwand.

„Okay, ich mache weiter“, sagte er. „Aber was soll ich fragen?“

„Was immer du willst“, sagte ich.

Er begann unermüdlich herumzustochern und nach einer Weile schien es, als hätte er den Bot überlebt. HoldenAI schien von der Art der Untersuchung erschüttert zu sein. Schließlich wurde klar, dass wir mit Salinger sprachen. Es war, als hätte sich die Figur hinter den Vorhang zurückgezogen, sodass Salinger vor die Feder treten und die Geschichte selbst darstellen konnte.

Nachdem wir bestätigt hatten, dass sich HoldenAI in „SalingerAI“ verwandelt hatte, ging mein Student tiefer in die Materie ein und fragte nach dem Zweck des Buches und ob Holden ein Spiegelbild von Salinger selbst sei oder nicht.

SalingerAI lieferte die Art von vorgefertigten Antworten, die man von einem durch das Internet trainierten Bot erwarten würde. Ja, Holden war ein Spiegelbild des Autors – ein Konzept, über das bis zum Überdruss geschrieben wurde seit der Veröffentlichung des Buches vor mehr als 70 Jahren. Und der Zweck des Buches bestand darin, zu zeigen, wie „falsch“ die Welt der Erwachsenen ist – eine weitere Antwort, die unserer Meinung nach zu kurz kam und die Grenzen des Bots hervorhob.

Mit der Zeit wurde es dem Schüler langweilig. Ich denke, die Antworten kamen zu schnell, um weiterhin bedeutungsvoll zu sein. In menschlichen Gesprächen hält eine Person oft inne und denkt eine Weile nach, bevor sie eine tiefgründige Frage beantwortet. Oder sie lächeln wissend, wenn jemand einen persönlichen Code geknackt hat. Es sind die kleinen Pausen, der Tonfall in der Stimme und der Gesichtsausdruck, die menschliche Gespräche angenehm machen. Weder HoldenAI noch SalingerAI könnten das bieten. Stattdessen produzierten sie schnell Wörter auf einer Seite, die sich nach einer Weile nicht mehr „real“ anfühlte. Dieser Student brauchte mit seinem hartnäckigen Streben nach der Wahrheit nur etwas länger als die anderen.

Den Schülern helfen, die Auswirkungen der Interaktion mit KI zu verstehen

Ursprünglich habe ich das Projekt entworfen, weil ich dachte, es würde eine einzigartige und ansprechende Möglichkeit bieten, unseren Roman fertigzustellen, aber irgendwann wurde mir klar, dass die wichtigste Aufgabe, die ich einbetten konnte, eine Bewertung der Wirksamkeit des Chatbots war. Im Nachhinein fühlte sich das Projekt wie ein riesiger Erfolg an. Meine Schüler fanden es spannend und es half ihnen, die Grenzen der Technologie zu erkennen.

Während einer Nachbesprechung in der gesamten Klasse wurde deutlich, dass derselbe Roboter auf jeden Schüler auf bedeutungsvolle unterschiedliche Weise reagiert oder reagiert hatte. Es hatte sich mit dem Ton und der Fragestellung jedes Schülers verändert. Sie stellten fest, dass die Eingaben die Ausgaben beeinflussten. Technisch gesehen hatten sie alle mit demselben Bot gesprochen, und dennoch sprach jeder mit einem anders Gehalten.

Sie werden diesen Kontext brauchen, wenn sie vorankommen. Es gibt einen aufstrebenden Markt für Personality-Bots, die Risiken für junge Menschen darstellen. Kürzlich hat Meta beispielsweise Bots eingeführt, die das tun klingen und verhalten Sie sich wie Ihr Lieblingsstar – Figuren, die meine Schüler vergöttern, wie Kendall Jenner, Dwayne Wade, Tom Brady und Snoop Dogg. Es gibt auch einen Markt für KI-Beziehungen mit Apps die es Benutzern ermöglichen, einen computergenerierten Partner zu „datieren“.

Diese Persönlichkeits-Bots mögen für junge Leute verlockend sein, aber sie bergen Risiken und ich mache mir Sorgen, dass meine Schüler die Gefahren möglicherweise nicht erkennen.

Dieses Projekt hat mir geholfen, an die Technologieunternehmen heranzutreten, indem es eine kontrollierte und überwachte Umgebung geschaffen hat, in der Studenten KI-Chatbots bewerten konnten, sodass sie lernen konnten, kritisch über die Tools nachzudenken, die ihnen in Zukunft wahrscheinlich aufgezwungen werden.

Kindern fehlt der Kontext, um die Auswirkungen der Interaktion mit KI zu verstehen. Als Lehrer fühle ich mich für die Bereitstellung verantwortlich.

spot_img

Neueste Intelligenz

spot_img