Zephyrnet-logo

En teknolog brukte år på å bygge en AI Chatbot-veileder. Han bestemte seg for at det ikke kan gjøres. – EdSurge News

Dato:

Da Satya Nitta jobbet i IBM, tok han og et team med kolleger på seg et dristig oppdrag: Bruk det siste innen kunstig intelligens for å bygge en ny type personlig digital veileder.

Dette var før ChatGPT eksisterte, og færre mennesker snakket om underverkene til AI. Men Nitta jobbet med det som kanskje var det høyest profilerte AI-systemet på den tiden, IBMs Watson. Det AI-verktøyet hadde gitt noen store gevinster, inkludert slo mennesker på Jeopardy-quizshowet i 2011.

Nitta sier at han var optimistisk på at Watson kunne drive en generalisert veileder, men han visste at oppgaven ville bli ekstremt vanskelig. "Jeg husker at jeg fortalte IBM topper at dette kommer til å bli en 25 år lang reise," fortalte han nylig til EdSurge.

Han sier at teamet hans brukte omtrent fem år på å prøve, og underveis hjalp de med å bygge noen småskalaforsøk på læringsprodukter, for eksempel en pilotchatbot-assistent som var del av et Pearsons nettbaserte psykologikurssystem i 2018.

Men til slutt bestemte Nitta seg for at selv om den generative AI-teknologien driver spenningen i disse dager bringer nye evner som vil endre utdanning og andre felt, er teknologien rett og slett ikke i stand til å levere på å bli en generalisert personlig veileder, og vil ikke bli i flere tiår i det minste, om noen gang.

"Vi vil ha flygende biler før vi får AI-lærere," sier han. "Det er en dypt menneskelig prosess som AI er håpløst ute av stand til å møte på en meningsfull måte. Det er som å være terapeut eller som å være sykepleier.»

I stedet var han med på å grunnlegge et nytt AI-selskap, kalt Merlyn Mind, som bygger andre typer AI-drevne verktøy for lærere.

I mellomtiden jobber mange bedrifter og utdanningsledere i disse dager hardt for å jage drømmen om å bygge AI-veiledere. Til og med en nylig Det hvite huss ordre søker å hjelpe saken.

Tidligere denne måneden, Sal Khan, leder av nonprofit Khan Academy, fortalte New York Times: «Vi er i ferd med å bruke AI for sannsynligvis den største positive transformasjonen som utdanning noen gang har sett. Og måten vi skal gjøre det på er ved å gi hver student på planeten en kunstig intelligent, men fantastisk personlig veileder."

Khan Academy har vært en av de første organisasjonene som brukte ChatGPT for å prøve å utvikle en slik veileder, som den kaller Khanmigo, som for tiden er i en pilotfase i en rekke skoler.

Khans system kommer imidlertid med en skremmende advarsel, og bemerker at det "gjør feil noen ganger." Advarselen er nødvendig fordi alle de nyeste AI-chatbotene lider av det som er kjent som "hallusinasjoner" - ordet som brukes for å beskrive situasjoner når chatboten bare fabrikkerer detaljer når den ikke vet svaret på et spørsmål spurt av en bruker.

AI-eksperter er opptatt med å prøve å oppveie hallusinasjonsproblemet, og en av de mest lovende tilnærmingene så langt er å ta inn en egen AI-chatbot for å sjekke resultatene til et system som ChatGPT for å se om det sannsynligvis har laget detaljer. Det er hva forskere ved Georgia Tech har prøvd, for eksempel, i håp om at deres muti-chatbot-system kan komme til et punkt hvor falsk informasjon blir skrubbet fra et svar før den vises til en student. Men det er ennå ikke klart at tilnærmingen kan nå et nøyaktighetsnivå som lærere vil akseptere.

På dette kritiske punktet i utviklingen av nye AI-verktøy er det imidlertid nyttig å spørre om en chatbot-veileder er det rette målet for utviklere å gå mot. Eller finnes det en bedre metafor enn "veileder" for hva generativ AI kan gjøre for å hjelpe elever og lærere?

En 'alltid-på hjelper'

Michael Feldstein bruker mye tid på å eksperimentere med chatbots i disse dager. Han er en mangeårig edtech-konsulent og blogger, og tidligere var han ikke sjenert for å kalle ut det han så som overdreven hype av selskaper som selger edtech-verktøy.

I 2015, han berømt kritisert lover om det som da var det siste innen AI for utdanning - et verktøy fra et selskap som heter Knewton. Administrerende direktør i Knewton, Jose Ferreira, sa at produktet hans ville være "som en robotlærer i himmelen som kan halvlese tankene dine og finne ut hva dine styrker og svakheter er, ned til prosentilen." Noe som førte til at Feldstein svarte at administrerende direktør "solgte slangeolje" fordi, hevdet Feldstein, verktøyet ikke var i nærheten av å leve opp til det løftet. (Eiendelene til Knewton var rolig solgt ut noen år senere.)

Så hva tenker Feldstein om de siste løftene fra AI-eksperter om at effektive veiledere kan være nær horisonten?

"ChatGPT er definitivt ikke slangeolje - langt ifra," sier han til EdSurge. «Det er heller ikke en robotveileder i himmelen som kan halvlese tankene dine. Den har nye muligheter, og vi må tenke på hva slags veiledningsfunksjoner dagens teknologi kan levere som vil være nyttig for studenter.»

Han tror imidlertid veiledning er en nyttig måte å se hva ChatGPT og andre nye chatbots kan gjøre. Og han sier det kommer av personlig erfaring.

Feldstein har en slektning som kjemper mot en hjerneblødning, og derfor har Feldstein henvendt seg til ChatGPT for å gi ham personlige leksjoner i å forstå den medisinske tilstanden og hans kjæres prognose. Ettersom Feldstein får oppdateringer fra venner og familie på Facebook, sier han, stiller han spørsmål i en pågående tråd i ChatGPT for å prøve å bedre forstå hva som skjer.

"Når jeg spør på den riktige måten, kan det gi meg riktig mengde detaljer om: 'Hva vet vi i dag om sjansene hennes for å bli bra igjen?'" sier Feldstein. "Det er ikke det samme som å snakke med en lege, men det har veiledet meg på meningsfulle måter om et alvorlig emne og hjulpet meg med å bli mer utdannet om min slektnings tilstand."

Mens Feldstein sier at han vil kalle det en veileder, argumenterer han for at det fortsatt er viktig at selskaper ikke overselger AI-verktøyene sine. "Vi har gjort en bjørnetjeneste å si at de er disse allvitende boksene, ellers vil de være det om noen måneder," sier han. «De er verktøy. De er merkelige verktøy. De oppfører seg dårlig på merkelige måter – det samme gjør folk.»

Han påpeker at selv menneskelige veiledere kan gjøre feil, men de fleste studenter har en følelse av hva de går inn på når de avtaler med en menneskelig veileder.

«Når du går inn på et veiledningssenter på høgskolen din, vet de ikke alt. Du vet ikke hvor trente de er. Det er en sjanse for at de kan fortelle deg noe som er galt. Men du går inn og får den hjelpen du kan."

Uansett hva du kaller disse nye AI-verktøyene, sier han, vil det være nyttig å "ha en alltid-på-hjelper som du kan stille spørsmål til," selv om resultatene deres bare er et utgangspunkt for mer læring.

'kjedelige' men viktige støtteoppgaver

Hva er nye måter som generative AI-verktøy kan brukes i utdanning, hvis veiledning ender opp med å ikke passe?

For Nitta er den sterkere rollen å tjene som assistent for eksperter i stedet for å erstatte en ekspertveileder. Med andre ord, i stedet for å erstatte for eksempel en terapeut, ser han for seg at chatbots kan hjelpe en menneskelig terapeut med å oppsummere og organisere notater fra en økt med en pasient.

"Det er et veldig nyttig verktøy i stedet for en kunstig intelligens som utgir seg for å være en terapeut," sier han. Selv om det kan bli sett på som «kjedelig» av noen, argumenterer han for at teknologiens superkraft er å «automatisere ting som mennesker ikke liker å gjøre».

I utdanningssammenheng bygger selskapet hans AI-verktøy designet for å hjelpe lærere, eller for å hjelpe menneskelige veiledere, med å gjøre jobben sin bedre. For det formål har Merlyn Mind tatt det uvanlige skrittet å bygge sin egen såkalte store språkmodell fra bunnen av designet for utdanning.

Selv da argumenterer han for at de beste resultatene kommer når modellen er innstilt for å støtte spesifikke utdanningsdomener, ved å bli trent med kontrollerte datasett i stedet for å stole på ChatGPT og andre vanlige verktøy som henter fra enorme mengder informasjon fra internett.

"Hva gjør en menneskelig veileder bra? De kjenner studenten, og de gir menneskelig motivasjon, legger han til. "Vi handler om at AI forsterker veilederen."

spot_img

Siste etterretning

spot_img