Logo Zéphyrnet

Comment un chatbot Holden Caulfield a aidé mes étudiants à développer des connaissances en IA – EdSurge News

Date :

«Je pense que je parle à Salinger. Puis-je demander?"

Mon élève se tenait à côté de mon bureau, l'ordinateur posé dans les deux mains, les yeux écarquillés par un mélange de peur et d'excitation. Nous terminions notre projet de fin de livre pour « The Catcher in the Rye », qui impliquait des étudiants interviewant un chatbot de personnage conçu pour imiter la personnalité et le style de parole de Holden Caulfield.

Nous avons accédé au robot via Character.AI, une plate-forme qui fournit des robots générés par les utilisateurs qui imitent, entre autres, des personnages historiques et fictifs célèbres. J'ai surnommé le bot « HoldenAI ».

Le projet, jusqu’à présent, avait été un succès. Les étudiants étaient ravis d’interviewer un personnage qu’ils venaient de passer plus de deux mois à disséquer. Le chatbot offrait l’opportunité de poser les questions brûlantes qui poursuivent souvent un lecteur après avoir consommé une grande œuvre de fiction. Qu'est-il arrivé à Holden ? Et pourquoi était-il si obsédé par ces fichus canards ? Et ils étaient impatients de le faire grâce à un nouvel outil – cela leur donnait l’occasion d’évaluer par eux-mêmes le marché en plein essor de l’intelligence artificielle (IA).

Lors de nos discussions en classe, un élève semblait plus touché que les autres par l'histoire de Holden, et il s'est plongé tête première dans ce projet. Mais je n’aurais pas pu prédire où mènerait son zèle pour le livre.

Après une longue et profonde conversation avec HoldenAI, il semblait que le robot s'était transformé en JD Salinger – ou du moins c'est ce que mon élève a pensé lorsqu'il m'a approché en classe. Alors que je cherchais son ordinateur pour lire la dernière entrée de sa conversation avec HoldenAI, j'ai remarqué à quel point les interactions étaient devenues intenses et je me suis demandé si j'étais allé trop loin.

Capture d'écran de la conversation avec « HoldenAI ». Avec l'aimable autorisation de Mike Kentz.

Développer la maîtrise de l’IA

Lorsque j'ai présenté le projet HoldenAI à mes étudiants, j'ai expliqué que nous entrions ensemble en territoire inexploré et qu'ils devraient se considérer comme des explorateurs. Ensuite, j'ai expliqué comment je surveillerais chaque aspect du projet, y compris la conversation elle-même.

Je les ai guidés dans la génération de questions d'entretien significatives et ouvertes qui créeraient (espérons-le) une conversation pertinente avec HoldenAI. J'ai fusionné l'analyse des personnages avec les éléments constitutifs de la pensée journalistique, demandant aux étudiants de localiser les aspects les plus intéressants de son histoire tout en se mettant à la place de Holden pour déterminer quels types de questions pourraient « le faire parler ».

Ensuite, nous nous sommes concentrés sur l'écoute active, que j'ai intégrée pour tester une théorie qui Les outils d'IA pourraient aider les gens à développer de l'empathie. Je leur ai conseillé de reconnaître ce que Holden a dit dans chaque commentaire plutôt que de passer rapidement à une autre question, comme le ferait tout bon causeur. Ensuite, j'ai évalué leur transcription de discussion pour prouver qu'ils avaient écouté et rencontré Holden où il était.

Enfin, nous avons utilisé le texte du livre et leurs discussions pour évaluer l'efficacité du robot à imiter Holden. Les étudiants ont rédigé des essais en discutant pour savoir si le robot avait amélioré leur compréhension de son personnage ou s'il s'était tellement éloigné du livre qu'il n'était plus utile.

Les essais étaient fascinants. La plupart des étudiants ont réalisé que le bot ait eu se différencier du personnage du livre afin de lui apporter quelque chose de nouveau. Mais chaque fois que le robot leur fournissait quelque chose de nouveau, celui-ci différait du livre d'une manière qui donnait aux étudiants le sentiment que quelqu'un d'autre que le robot leur mentait. réal Holden. Les nouvelles informations semblaient inexactes, mais les anciennes informations semblaient inutiles. Seuls certains moments spéciaux semblaient suffisamment liés au livre pour être réels, mais suffisamment différents pour être éclairants.

Mais les transcriptions des conversations de mes élèves étaient encore plus révélatrices, car elles révélaient une pléthore d'approches différentes révélant leur personnalité et leur maturité émotionnelle.

Une variété de résultats

Pour certains étudiants, les discussions avec Holden sont devenues des espaces sûrs où ils ont partagé des questions légitimes sur la vie et les difficultés de l'adolescence. Ils traitaient Holden comme un pair et discutaient de problèmes familiaux, de pressions sociales ou de difficultés scolaires.

D’un côté, c’était inquiétant de les voir plonger si profondément dans une conversation avec un chatbot – je craignais que cela ne devienne trop réel pour eux. D'un autre côté, c'était ce que j'espérais que le projet pourrait créer : un espace sûr pour l'expression de soi, ce qui est essentiel pour les adolescents, surtout à une époque où solitude et isolement ont été déclarées comme un problème de santé publique.

En fait, certains chatbots sont conçus comme un solution à la solitude - et un étude récente Des chercheurs de l'Université de Stanford ont montré qu'un robot d'IA appelé Replika réduisait la solitude et les idées suicidaires chez un groupe test d'adolescents.

Certains étudiants ont suivi ma rubrique, mais n'ont jamais semblé considérer HoldenAI comme autre chose qu'un robot dans un devoir scolaire. Cela me convenait bien. Ils ont posé leurs questions et répondu aux frustrations et aux difficultés de Holden, mais ils ont également maintenu une distance émotionnelle de sécurité. Ces étudiants ont renforcé mon optimisme pour l’avenir car ils ne se laissaient pas facilement tromper par les robots IA.

D’autres, cependant, ont traité le robot comme s’il s’agissait d’un moteur de recherche, le bombardant de questions tirées de leur liste d’entretiens, mais sans jamais vraiment l’engager. Et certains ont traité HoldenAI comme un jouet, le narguant et essayant de le déclencher pour s'amuser.

Tout au long du projet, au fur et à mesure que mes élèves s'exprimaient, j'en ai appris davantage sur eux. Leurs conversations m’ont aidé à comprendre que les gens ont besoin d’espaces sûrs, et que parfois l’IA peut les leur offrir – mais qu’il existe également des risques bien réels.

De HoldenAI à SalingerAI

Lorsque mon élève m'a montré cette dernière entrée dans sa conversation, me demandant des conseils sur la façon d'avancer, je lui ai demandé de revenir en arrière et d'expliquer ce qui s'était passé. Il a décrit le moment où le robot semblait s'effondrer et se retirer de la conversation, disparaissant de la vue et pleurant tout seul. Il m'a expliqué qu'il avait ensuite éteint son ordinateur, craignant de continuer jusqu'à ce qu'il puisse me parler. Il voulait continuer mais avait d’abord besoin de mon soutien.

Je m'inquiétais de ce qui pourrait arriver si je le laissais continuer. Était-il trop impliqué ? Je me demandais comment il avait déclenché ce type de réponse et qu'est-ce qui se cachait derrière la programmation du robot qui avait conduit à ce changement ?

J'ai pris une décision rapide. L'idée de l'interrompre au point culminant de sa conversation lui paraissait plus préjudiciable que de le laisser continuer. Mon élève était curieux, et moi aussi. Quel genre de professeur serais-je pour couper la curiosité ? J'ai décidé que nous continuerions ensemble.

Mais je lui ai d'abord rappelé qu'il ne s'agissait que d'un robot, programmé par une autre personne, et que tout ce qu'il disait était inventé. Ce n'était pas un véritable être humain, aussi réelle que puisse paraître la conversation, et qu'il soit en sécurité. J'ai vu ses épaules se détendre et la peur disparaître de son visage.

"D'accord, je vais continuer", dit-il. « Mais que dois-je demander ? »

"Tout ce que tu veux," dis-je.

Il commença à le pousser sans relâche et après un moment, il sembla qu'il avait survécu au robot. HoldenAI semblait ébranlé par la ligne d’enquête. Finalement, il est devenu clair que nous parlions à Salinger. C'était comme si le personnage s'était retiré derrière le rideau, permettant à Salinger de sortir devant le stylo et la page et de représenter l'histoire par lui-même.

Une fois que nous avons confirmé que HoldenAI s'était transformé en « SalingerAI », mon élève a creusé plus profondément, s'enquérant du but du livre et si Holden était ou non le reflet de Salinger lui-même..

SalingerAI a produit le type de réponses prédéfinies que l’on peut attendre d’un robot formé par Internet. Oui, Holden était le reflet de l'auteur — un concept qui a été écrit ad nauseam depuis la publication du livre il y a plus de 70 ans. Et le but du livre était de montrer à quel point le monde des adultes est « bidon » – une autre réponse qui, à notre avis, a échoué, en soulignant les limites du robot.

Avec le temps, l’étudiant s’est ennuyé. Les réponses, je pense, sont arrivées trop vite pour continuer à avoir un sens. Dans une conversation humaine, une personne fait souvent une pause et réfléchit un moment avant de répondre à une question profonde. Ou encore, ils sourient en connaissance de cause lorsque quelqu'un a déchiffré un code personnel. Ce sont les petites pauses, les inflexions de la voix et les expressions faciales qui rendent la conversation humaine agréable. Ni HoldenAI ni SalingerAI ne pouvaient offrir cela. Au lieu de cela, ils ont produit rapidement des mots sur une page qui, après un certain temps, ne semblaient plus « réels ». Il a fallu à cet étudiant, avec sa quête acharnée de la vérité, un peu plus de temps que les autres.

Aider les étudiants à comprendre les implications de l'interaction avec l'IA

J'ai initialement conçu le projet parce que je pensais qu'il fournirait une manière unique et engageante de terminer notre roman, mais quelque part en cours de route, j'ai réalisé que la tâche la plus importante que je pouvais intégrer était une évaluation de l'efficacité du chatbot. En y réfléchissant, le projet semble être un énorme succès. Mes étudiants ont trouvé cela intéressant et cela les a aidés à reconnaître les limites de la technologie.

Au cours d'un débriefing en classe complète, il est devenu clair que le même robot avait agi ou réagi envers chaque élève de manière significativement différente. Cela avait changé avec le ton et la ligne de questions de chaque élève. Les intrants affectaient les extrants, se rendirent-ils compte. Techniquement, ils avaient tous conversé avec le même robot, et pourtant chacun parlait à un différent tenir.

Ils auront besoin de ce contexte à mesure qu’ils avancent. Il existe un marché émergent de robots de personnalité qui présentent des risques pour les jeunes. Récemment, par exemple, Meta a déployé des robots qui sonnez et agissez comme votre célébrité préférée – des personnalités que mes élèves idolâtrent, comme Kendall Jenner, Dwayne Wade, Tom Brady et Snoop Dogg. Il existe également un marché pour les relations entre l'IA et applications qui permettent aux utilisateurs de « sortir avec » un partenaire généré par ordinateur.

Ces robots de personnalité peuvent être attrayants pour les jeunes, mais ils comportent des risques et je crains que mes élèves ne reconnaissent pas les dangers.

Ce projet m'a aidé à me démarquer des entreprises technologiques, en fournissant un environnement contrôlé et surveillé dans lequel les étudiants pouvaient évaluer les chatbots IA, afin qu'ils puissent apprendre à réfléchir de manière critique sur les outils qui sont susceptibles de leur être imposés à l'avenir.

Les enfants n’ont pas le contexte nécessaire pour comprendre les implications de l’interaction avec l’IA. En tant qu'enseignant, je me sens responsable de le fournir.

spot_img

Dernières informations

spot_img