Logotipo de Zephyrnet

Un tecnólogo pasó años creando un tutor de chatbot de IA. Decidió que no se puede hacer. – Noticias EdSurge

Fecha:

Cuando Satya Nitta trabajaba en IBM, él y un equipo de colegas asumieron una tarea audaz: utilizar lo último en inteligencia artificial para crear un nuevo tipo de tutor digital personal.

Esto fue antes de que existiera ChatGPT y menos gente hablaba de las maravillas de la IA. Pero Nitta estaba trabajando con lo que quizás era el sistema de inteligencia artificial de más alto perfil en ese momento: Watson de IBM. Esa herramienta de inteligencia artificial había logrado grandes logros, entre ellos vencer a humanos en el programa de preguntas Jeopardy en 2011.

Nitta dice que era optimista de que Watson podría impulsar un tutor generalizado, pero sabía que la tarea sería extremadamente difícil. "Recuerdo haberle dicho a los altos mandos de IBM que este será un viaje de 25 años", dijo recientemente a EdSurge.

Dice que su equipo pasó unos cinco años intentándolo y, en el camino, ayudaron a crear algunos intentos a pequeña escala en productos de aprendizaje, como un asistente piloto de chatbot que fue parte de un sistema de cursos de psicología en línea de Pearson en el 2018.

Pero al final, Nitta decidió que, aunque la tecnología de IA generativa que genera entusiasmo en estos días trae nuevas capacidades que cambiarán la educación y otros campos, la tecnología simplemente no está a la altura de convertirse en un tutor personal generalizado, y no lo será. al menos durante décadas, si es que alguna vez lo hacen.

"Tendremos coches voladores antes de tener tutores de IA", afirma. “Es un proceso profundamente humano que la IA es irremediablemente incapaz de afrontar de manera significativa. Es como ser terapeuta o enfermera”.

En cambio, cofundó una nueva empresa de inteligencia artificial, llamada Merlyn Mind, que está creando otros tipos de herramientas basadas en inteligencia artificial para educadores.

Mientras tanto, muchas empresas y líderes educativos en estos días están trabajando arduamente para perseguir el sueño de crear tutores de IA. Incluso un reciente Orden ejecutiva de la Casa Blanca busca ayudar a la causa.

A principios de este mes, Sal Khan, líder de la organización sin fines de lucro Khan Academy, le dijo al New York Times: “Estamos a punto de utilizar la IA para probablemente la mayor transformación positiva que jamás haya visto la educación. Y la forma en que lo haremos es dándole a cada estudiante del planeta un tutor personal sorprendente, pero artificialmente inteligente”.

Khan Academy ha sido una de las primeras organizaciones en utilizar ChatGPT para intentar desarrollar un tutor de este tipo, al que llama Khanmigo, que actualmente se encuentra en una fase piloto en una serie de escuelas.

Sin embargo, el sistema de Khan viene con una advertencia desagradable, señalando que "a veces comete errores". La advertencia es necesaria porque todos los chatbots de IA más recientes sufren de lo que se conoce como "alucinaciones", la palabra utilizada para describir situaciones en las que el chatbot simplemente fabrica detalles cuando no sabe la respuesta a una pregunta formulada por un usuario.

Los expertos en inteligencia artificial están ocupados tratando de compensar el problema de las alucinaciones, y uno de los enfoques más prometedores hasta ahora es incorporar un chatbot de inteligencia artificial independiente para verificar los resultados de un sistema como ChatGPT y ver si es probable que haya inventado detalles. eso es lo que Los investigadores de Georgia Tech han estado intentando, por ejemplo, con la esperanza de que su sistema multi-chatbot pueda llegar al punto en que cualquier información falsa sea eliminada de una respuesta antes de mostrársela a un estudiante. Pero aún no está claro que este enfoque pueda alcanzar un nivel de precisión que los educadores acepten.

Sin embargo, en este punto crítico en el desarrollo de nuevas herramientas de inteligencia artificial, es útil preguntarse si un tutor de chatbot es el objetivo correcto al que deben dirigirse los desarrolladores. ¿O existe una mejor metáfora que “tutor” para describir lo que la IA generativa puede hacer para ayudar a estudiantes y profesores?

Un 'ayudante siempre activo'

Michael Feldstein pasa mucho tiempo experimentando con chatbots hoy en día. Es un blogger y consultor de tecnología educativa desde hace mucho tiempo, y en el pasado no tuvo reparos en denunciar lo que consideraba una exageración excesiva por parte de las empresas que venden herramientas de tecnología educativa.

En 2015, el famosamente criticado promesas sobre lo que entonces era lo último en inteligencia artificial para la educación: una herramienta de una empresa llamada Knewton. El director general de Knewton, José Ferreira, dijo que su producto sería “como un robot tutor en el cielo que puede semileer tu mente y descubrir cuáles son tus fortalezas y debilidades, hasta el percentil”. Lo que llevó a Feldstein a responder que el director ejecutivo estaba “vendiendo aceite de serpiente” porque, argumentó Feldstein, la herramienta no estaba ni cerca de cumplir esa promesa. (Los activos de Knewton eran vendido silenciosamente Unos años despues.)

Entonces, ¿qué piensa Feldstein de las últimas promesas de los expertos en inteligencia artificial de que podría haber tutores eficaces en el horizonte cercano?

"ChatGPT definitivamente no es aceite de serpiente, ni mucho menos", le dice a EdSurge. “Tampoco es un robot tutor en el cielo que pueda semileer tu mente. Tiene nuevas capacidades y debemos pensar en qué tipos de funciones de tutoría puede ofrecer la tecnología actual que serían útiles para los estudiantes”.

Sin embargo, cree que la tutoría es una forma útil de ver lo que ChatGPT y otros chatbots nuevos pueden hacer. Y dice que eso viene de la experiencia personal.

Feldstein tiene un pariente que está luchando contra una hemorragia cerebral, por lo que Feldstein ha recurrido a ChatGPT para darle lecciones personales sobre cómo comprender la condición médica y el pronóstico de su ser querido. A medida que Feldstein recibe actualizaciones de amigos y familiares en Facebook, dice, hace preguntas en un hilo continuo en ChatGPT para tratar de comprender mejor lo que está sucediendo.

“Cuando lo pregunto de la manera correcta, puedo darme la cantidad adecuada de detalles sobre '¿Qué sabemos hoy sobre sus posibilidades de volver a estar bien?'”, dice Feldstein. "No es lo mismo que hablar con un médico, pero me ha enseñado de manera significativa sobre un tema serio y me ha ayudado a informarme mejor sobre la condición de mi familiar".

Si bien Feldstein dice que lo llamaría tutor, sostiene que sigue siendo importante que las empresas no sobrevendan sus herramientas de inteligencia artificial. "Hemos hecho un flaco favor al decir que son estas cajas que todo lo saben, o que lo serán en unos meses", dice. “Son herramientas. Son herramientas extrañas. Se portan mal de maneras extrañas, al igual que la gente”.

Señala que incluso los tutores humanos pueden cometer errores, pero la mayoría de los estudiantes tienen una idea de en qué se están metiendo cuando concertan una cita con un tutor humano.

“Cuando vas a un centro de tutoría de tu universidad, no lo saben todo. No sabes lo entrenados que están. Existe la posibilidad de que le digan algo que está mal. Pero entra y busca la ayuda que puedas”.

Como sea que se llamen estas nuevas herramientas de IA, afirma, será útil “tener un ayudante siempre disponible al que puedas hacer preguntas”, incluso si sus resultados son sólo un punto de partida para seguir aprendiendo.

Tareas de soporte 'aburridas' pero importantes

¿Cuáles son las nuevas formas en que se pueden utilizar las herramientas de IA generativa en la educación, si la tutoría termina no siendo la opción adecuada?

Para Nitta, el papel más importante es servir como asistente de expertos en lugar de reemplazar a un tutor experto. En otras palabras, en lugar de reemplazar, digamos, a un terapeuta, imagina que los chatbots pueden ayudar a un terapeuta humano a resumir y organizar notas de una sesión con un paciente.

"Es una herramienta muy útil en lugar de una IA que pretende ser un terapeuta", afirma. Aunque algunos puedan verlo como "aburrido", sostiene que el superpoder de la tecnología es "automatizar cosas que a los humanos no les gusta hacer".

En el contexto educativo, su empresa está creando herramientas de inteligencia artificial diseñadas para ayudar a los profesores o a los tutores humanos a hacer mejor su trabajo. Con ese fin, Merlyn Mind ha dado el paso inusual de construir desde cero su propio modelo de lenguaje grande diseñado para la educación.

Incluso entonces, sostiene que los mejores resultados se obtienen cuando el modelo se ajusta para respaldar dominios educativos específicos, entrenándolo con conjuntos de datos examinados en lugar de depender de ChatGPT y otras herramientas convencionales que extraen grandes cantidades de información de Internet.

“¿Qué hace bien un tutor humano? Conocen al alumno y le aportan motivación humana”, añade. "Lo que buscamos es que la IA mejore al tutor".

punto_img

Información más reciente

punto_img