Zephyrnet-logo

Een technoloog heeft jarenlang een AI-chatbot-leraar gebouwd. Hij besloot dat het niet kon. – EdSurge-nieuws

Datum:

Toen Satya Nitta bij IBM werkte, kregen hij en een team van collega's een gedurfde opdracht: gebruik het nieuwste op het gebied van kunstmatige intelligentie om een ​​nieuw soort persoonlijke digitale docent te bouwen.

Dit was voordat ChatGPT bestond en minder mensen spraken over de wonderen van AI. Maar Nitta werkte met wat destijds misschien wel het bekendste AI-systeem was: Watson van IBM. Die AI-tool had een aantal grote overwinningen opgeleverd, waaronder mensen verslaan tijdens de Jeopardy-quiz in 2011.

Nitta zegt dat hij optimistisch was dat Watson een algemene docent zou kunnen aansturen, maar hij wist dat de taak buitengewoon moeilijk zou zijn. “Ik herinner me dat ik de top van IBM vertelde dat dit een reis van 25 jaar gaat worden”, vertelde hij onlangs aan EdSurge.

Hij zegt dat zijn team er ongeveer vijf jaar over heeft gedaan om het te proberen, en gaandeweg hebben ze meegeholpen aan het opzetten van enkele kleinschalige pogingen om leerproducten te ontwikkelen, zoals een pilot-chatbot-assistent die onderdeel van een Pearson online psychologiecursussysteem in 2018.

Maar uiteindelijk kwam Nitta tot de conclusie dat, hoewel de generatieve AI-technologie die tegenwoordig voor opwinding zorgt, nieuwe mogelijkheden met zich meebrengt die het onderwijs en andere terreinen zullen veranderen, de technologie gewoon niet in staat is een algemene persoonlijke docent te worden, en dat ook niet zal worden. tenminste tientallen jaren, of nooit.

“We zullen vliegende auto’s hebben voordat we AI-docenten hebben”, zegt hij. “Het is een diepmenselijk proces waar AI hopeloos niet in staat is om op een zinvolle manier tegemoet te komen. Het is alsof je een therapeut bent, of een verpleegster.”

In plaats daarvan was hij medeoprichter van een nieuw AI-bedrijf, Merlyn Mind genaamd, dat andere soorten AI-aangedreven tools voor docenten bouwt.

Ondertussen zijn veel bedrijven en leiders in het onderwijs tegenwoordig hard aan het werk om de droom van het bouwen van AI-docenten na te jagen. Zelfs een recente Uitvoerend bevel van het Witte Huis probeert de zaak te helpen.

Eerder deze maand zei Sal Khan, leider van de non-profit Khan Academy, vertelde de New York Times: “We staan ​​aan de vooravond van het gebruik van AI voor waarschijnlijk de grootste positieve transformatie die het onderwijs ooit heeft gezien. En de manier waarop we dat gaan doen is door elke student op deze planeet een kunstmatig intelligente maar geweldige persoonlijke leraar te geven.”

Khan Academy is een van de eerste organisaties geweest die ChatGPT heeft gebruikt om een ​​dergelijke tutor te ontwikkelen, die zij Khanmigo noemt, die zich momenteel in een pilotfase bevindt in een reeks scholen.

Het systeem van Khan bevat echter een onaangename waarschuwing, waarbij wordt opgemerkt dat het “soms fouten maakt.” De waarschuwing is nodig omdat alle nieuwste AI-chatbots last hebben van zogenaamde ‘hallucinaties’ – het woord dat wordt gebruikt om situaties te beschrijven waarin de chatbot eenvoudigweg details verzint als hij het antwoord niet weet op een vraag van een gebruiker.

AI-experts zijn druk bezig het hallucinatieprobleem te compenseren, en een van de meest veelbelovende benaderingen tot nu toe is het inzetten van een aparte AI-chatbot om de resultaten van een systeem als ChatGPT te controleren om te zien of het waarschijnlijk details heeft verzonnen. Dat is wat onderzoekers van Georgia Tech hebben het geprobeerd, bijvoorbeeld in de hoop dat hun muti-chatbot-systeem het punt kan bereiken waarop valse informatie uit een antwoord wordt geschrapt voordat het aan een student wordt getoond. Maar het is nog niet duidelijk of deze aanpak een niveau van nauwkeurigheid kan bereiken dat docenten zullen accepteren.

Op dit cruciale punt in de ontwikkeling van nieuwe AI-tools is het echter nuttig om je af te vragen of een chatbot-tutor het juiste doel is voor ontwikkelaars om naar toe te streven. Of is er een betere metafoor dan ‘tutor’ voor wat generatieve AI kan doen om studenten en docenten te helpen?

Een 'altijd beschikbare helper'

Michael Feldstein besteedt tegenwoordig veel tijd aan het experimenteren met chatbots. Hij is al jarenlang edtech-consultant en blogger, en in het verleden was hij niet verlegen om de in zijn ogen buitensporige hype van bedrijven die edtech-tools verkochten, aan de kaak te stellen.

In 2015, hij beroemd bekritiseerd belooft over wat toen het nieuwste was op het gebied van AI voor het onderwijs – een tool van een bedrijf genaamd Knewton. De CEO van Knewton, Jose Ferreira, zei dat zijn product zou zijn “als een robotleraar in de lucht die je gedachten half kan lezen en erachter kan komen wat je sterke en zwakke punten zijn, tot op het percentiel.” Wat Feldstein ertoe bracht te antwoorden dat de CEO ‘slangenolie verkocht’ omdat, zo betoogde Feldstein, het instrument die belofte bij lange na niet kon waarmaken. (De bezittingen van Knewton waren stilletjes verkocht een paar jaar later.)

Dus wat vindt Feldstein van de nieuwste beloften van AI-experts dat effectieve docenten in aantocht zouden kunnen zijn?

“ChatGPT is absoluut geen slangenolie – verre van dat”, vertelt hij aan EdSurge. “Het is ook geen robotleraar in de lucht die je gedachten half kan lezen. Het heeft nieuwe mogelijkheden, en we moeten nadenken over welke soorten bijlesfuncties de huidige technologie kan bieden en die nuttig zouden kunnen zijn voor studenten.”

Hij denkt echter dat bijles een nuttige manier is om te zien wat ChatGPT en andere nieuwe chatbots kunnen doen. En hij zegt dat dat uit persoonlijke ervaring komt.

Feldstein heeft een familielid dat kampt met een hersenbloeding, en daarom wendt Feldstein zich tot ChatGPT om hem persoonlijke lessen te geven in het begrijpen van de medische toestand en de prognose van zijn geliefde. Terwijl Feldstein updates krijgt van vrienden en familie op Facebook, zegt hij, stelt hij vragen in een doorlopende draad in ChatGPT om beter te begrijpen wat er gebeurt.

"Als ik het op de juiste manier vraag, kan het me de juiste hoeveelheid details geven over: 'Wat weten we vandaag over haar kansen om weer in orde te zijn?'", zegt Feldstein. “Het is niet hetzelfde als praten met een dokter, maar het heeft mij op zinvolle wijze les gegeven over een serieus onderwerp en mij geholpen meer inzicht te krijgen in de toestand van mijn familielid.”

Hoewel Feldstein zegt dat hij dat een tutor zou noemen, stelt hij dat het nog steeds belangrijk is dat bedrijven hun AI-tools niet te veel verkopen. "We hebben een slechte dienst bewezen door te zeggen dat het alwetende dozen zijn, anders zullen ze dat over een paar maanden wel zijn", zegt hij. 'Het zijn hulpmiddelen. Het zijn vreemde hulpmiddelen. Ze misdragen zich op vreemde manieren, net als mensen.”

Hij wijst erop dat zelfs menselijke docenten fouten kunnen maken, maar de meeste studenten weten waar ze aan beginnen als ze een afspraak maken met een menselijke docent.

“Als je naar een bijlescentrum op je universiteit gaat, weten ze niet alles. Je weet niet hoe getraind ze zijn. Er is een kans dat ze je iets vertellen dat niet klopt. Maar ga naar binnen en krijg de hulp die je kunt.

Hoe je deze nieuwe AI-tools ook noemt, zegt hij, het zal nuttig zijn om ‘altijd een helper te hebben aan wie je vragen kunt stellen’, zelfs als de resultaten ervan slechts een startpunt zijn om meer te leren.

'Saai' maar belangrijke ondersteunende taken

Wat zijn nieuwe manieren waarop generatieve AI-tools in het onderwijs kunnen worden gebruikt, als bijles niet de juiste keuze blijkt te zijn?

Voor Nitta is de sterkere rol om als assistent van experts te dienen, in plaats van als vervanger van een deskundige docent. Met andere woorden: in plaats van bijvoorbeeld een therapeut te vervangen, stelt hij zich voor dat chatbots een menselijke therapeut kunnen helpen aantekeningen van een sessie met een patiënt samen te vatten en te ordenen.

"Dat is een zeer nuttig hulpmiddel in plaats van een AI die zich voordoet als een therapeut", zegt hij. Hoewel dat door sommigen misschien als ‘saai’ wordt gezien, stelt hij dat de superkracht van de technologie erin bestaat ‘dingen te automatiseren die mensen niet graag doen’.

In de onderwijscontext bouwt zijn bedrijf AI-tools die zijn ontworpen om leraren te helpen, of om menselijke docenten te helpen hun werk beter te doen. Met dat doel voor ogen heeft Merlyn Mind de ongebruikelijke stap gezet om zijn eigen zogenaamde grote taalmodel helemaal opnieuw op te bouwen, ontworpen voor het onderwijs.

Zelfs dan beweert hij dat de beste resultaten worden behaald als het model is afgestemd op de ondersteuning van specifieke onderwijsdomeinen, door te worden getraind met gecontroleerde datasets in plaats van te vertrouwen op ChatGPT en andere reguliere tools die putten uit enorme hoeveelheden informatie van internet.

“Wat doet een menselijke docent goed? Ze kennen de student en zorgen voor menselijke motivatie”, voegt hij eraan toe. “Het gaat ons allemaal om de AI die de docent versterkt.”

spot_img

Laatste intelligentie

spot_img