Zephyrnet-Logo

Ein Technologe hat Jahre damit verbracht, einen KI-Chatbot-Tutor zu entwickeln. Er entschied, dass es nicht möglich ist. – EdSurge-Nachrichten

Datum:

Als Satya Nitta bei IBM arbeitete, nahmen er und ein Team von Kollegen eine mutige Aufgabe an: Nutzen Sie die neueste künstliche Intelligenz, um eine neue Art von persönlichem digitalen Tutor zu entwickeln.

Das war, bevor ChatGPT existierte und weniger Menschen über die Wunder der KI sprachen. Aber Nitta arbeitete mit dem damals vielleicht bekanntesten KI-System, IBMs Watson. Dieses KI-Tool hatte einige große Erfolge erzielt, darunter 2011 schlug er Menschen in der Quizshow „Jeopardy“..

Nitta sagt, er sei optimistisch, dass Watson einen allgemeinen Nachhilfelehrer befördern könnte, aber er wusste, dass die Aufgabe äußerst schwierig sein würde. „Ich erinnere mich, dass ich den Spitzenmanagern von IBM gesagt habe, dass dies eine 25-jährige Reise sein wird“, sagte er kürzlich gegenüber EdSurge.

Er sagt, sein Team habe etwa fünf Jahre damit verbracht, es zu versuchen, und dabei dabei geholfen, einige kleine Versuche in Lernprodukte umzuwandeln, wie zum Beispiel einen Pilot-Chatbot-Assistenten Teil eines Online-Kursunterlagensystems für Psychologie von Pearson .

Aber am Ende kam Nitta zu dem Schluss, dass die generative KI-Technologie, die heutzutage für Aufregung sorgt, zwar neue Möglichkeiten mit sich bringt, die die Bildung und andere Bereiche verändern werden, dass die Technologie aber einfach nicht in der Lage ist, ein allgemeiner persönlicher Nachhilfelehrer zu werden, und dass dies auch nicht der Fall sein wird zumindest jahrzehntelang, wenn überhaupt.

„Wir werden fliegende Autos haben, bevor wir KI-Lehrer haben“, sagt er. „Es ist ein zutiefst menschlicher Prozess, den die KI hoffnungslos nicht auf sinnvolle Weise bewältigen kann. Es ist wie ein Therapeut oder eine Krankenschwester.“

Stattdessen war er Mitbegründer eines neuen KI-Unternehmens namens Merlyn Mind, das andere Arten von KI-gestützten Tools für Pädagogen entwickelt.

Unterdessen arbeiten viele Unternehmen und Bildungsleiter hart daran, den Traum vom Aufbau von KI-Lehrkräften zu verwirklichen. Sogar eine aktuelle Executive Order des Weißen Hauses versucht, der Sache zu helfen.

Anfang dieses Monats sagte Sal Khan, Leiter der gemeinnützigen Khan Academy, gegenüber der New York Times: „Wir stehen kurz davor, KI für den wahrscheinlich größten positiven Wandel zu nutzen, den die Bildung jemals erlebt hat.“ Und das werden wir erreichen, indem wir jedem Schüler auf dem Planeten einen künstlich intelligenten, aber erstaunlichen persönlichen Nachhilfelehrer geben.“

Die Khan Academy war eine der ersten Organisationen, die ChatGPT nutzte, um einen solchen Tutor namens Khanmigo zu entwickeln, der sich derzeit in einer Reihe von Schulen in einer Pilotphase befindet.

Khans System enthält jedoch eine abschreckende Warnung, dass es „manchmal Fehler macht“. Die Warnung ist notwendig, da alle aktuellen KI-Chatbots unter sogenannten „Halluzinationen“ leiden – mit diesem Wort werden Situationen beschrieben, in denen der Chatbot einfach Details erfindet, obwohl er die Antwort auf eine von einem Benutzer gestellte Frage nicht kennt.

KI-Experten sind damit beschäftigt, das Halluzinationsproblem zu lösen, und einer der bisher vielversprechendsten Ansätze besteht darin, einen separaten KI-Chatbot einzusetzen, um die Ergebnisse eines Systems wie ChatGPT zu überprüfen, um zu sehen, ob es wahrscheinlich Details erfunden hat. Das ist, was Forscher der Georgia Tech haben es versucht, zum Beispiel, in der Hoffnung, dass ihr Multi-Chatbot-System den Punkt erreichen kann, an dem falsche Informationen aus einer Antwort entfernt werden, bevor sie einem Schüler angezeigt wird. Es ist jedoch noch nicht klar, ob dieser Ansatz ein Maß an Genauigkeit erreichen kann, das von Pädagogen akzeptiert wird.

An diesem kritischen Punkt in der Entwicklung neuer KI-Tools ist es jedoch sinnvoll zu fragen, ob ein Chatbot-Tutor das richtige Ziel für Entwickler ist. Oder gibt es eine bessere Metapher als „Tutor“ dafür, was generative KI tun kann, um Schülern und Lehrern zu helfen?

Ein „Always-on-Helfer“

Michael Feldstein verbringt heutzutage viel Zeit damit, mit Chatbots zu experimentieren. Er ist ein langjähriger Edtech-Berater und Blogger und scheute sich in der Vergangenheit nicht davor, auf den seiner Meinung nach übermäßigen Hype von Unternehmen hinzuweisen, die Edtech-Tools verkaufen.

In 2015 hat er bekanntermaßen kritisiert verspricht, was damals die neueste KI für den Bildungsbereich war – ein Tool einer Firma namens Knewton. Der CEO von Knewton, Jose Ferreira, sagte, sein Produkt sei „wie ein Roboterlehrer am Himmel, der Ihre Gedanken halb lesen und Ihre Stärken und Schwächen bis auf das Perzentil herausfinden kann.“ Was Feldstein zu der Antwort veranlasste, dass der CEO „Schlangenöl verkaufe“, weil das Tool, so argumentierte Feldstein, dieses Versprechen bei weitem nicht einhalten könne. (Das Vermögen von Knewton betrug stillschweigend verkauft ein paar Jahre später.)

Was hält Feldstein also von den jüngsten Versprechungen von KI-Experten, dass in naher Zukunft effektive Nachhilfelehrer auftauchen könnten?

„ChatGPT ist definitiv kein Schlangenöl – ganz im Gegenteil“, sagt er zu EdSurge. „Es ist auch kein Roboterlehrer am Himmel, der Ihre Gedanken halbwegs lesen kann. Es verfügt über neue Möglichkeiten, und wir müssen darüber nachdenken, welche Art von Nachhilfefunktionen die heutige Technologie bieten kann, die für Studenten nützlich wären.“

Er ist jedoch der Meinung, dass Nachhilfeunterricht eine nützliche Möglichkeit ist, herauszufinden, was ChatGPT und andere neue Chatbots leisten können. Und er sagt, das stamme aus persönlicher Erfahrung.

Feldstein hat einen Verwandten, der mit einer Gehirnblutung kämpft, und so hat sich Feldstein an ChatGPT gewandt, um ihm persönliche Lektionen zum Verständnis des Gesundheitszustands und der Prognose seines geliebten Menschen zu geben. Während Feldstein auf Facebook Updates von Freunden und Familie erhält, stellt er in einem laufenden Thread in ChatGPT Fragen, um besser zu verstehen, was passiert.

„Wenn ich sie richtig frage, kann sie mir die richtige Menge an Details darüber liefern: ‚Was wissen wir heute über ihre Chancen, dass es ihr wieder gut geht?‘“, sagt Feldstein. „Es ist nicht dasselbe wie mit einem Arzt zu sprechen, aber es hat mir auf sinnvolle Weise Wissen über ein ernstes Thema vermittelt und mir geholfen, mehr über den Zustand meines Verwandten zu erfahren.“

Während Feldstein sagt, dass er das einen Tutor nennen würde, argumentiert er, dass es immer noch wichtig ist, dass Unternehmen ihre KI-Tools nicht überverkaufen. „Wir haben keinen Gefallen getan, wenn wir sagen, dass es sich um diese allwissenden Kisten handelt, oder dass sie es in ein paar Monaten sein werden“, sagt er. „Sie sind Werkzeuge. Es sind seltsame Werkzeuge. Sie benehmen sich auf seltsame Weise daneben – genau wie Menschen.“

Er weist darauf hin, dass auch menschliche Nachhilfelehrer Fehler machen können, aber die meisten Schüler wissen, worauf sie sich einlassen, wenn sie einen Termin mit einem menschlichen Nachhilfelehrer vereinbaren.

„Wenn Sie an Ihrer Hochschule in ein Nachhilfezentrum gehen, wissen sie nicht alles. Sie wissen nicht, wie ausgebildet sie sind. Es besteht die Möglichkeit, dass sie Ihnen sagen, dass etwas nicht stimmt. Aber Sie gehen hinein und holen sich die Hilfe, die Sie können.“

Wie auch immer man diese neuen KI-Tools nennt, sagt er, es sei nützlich, „einen ständig verfügbaren Helfer zu haben, dem man Fragen stellen kann“, auch wenn ihre Ergebnisse nur ein Ausgangspunkt für mehr Lernen sind.

„Langweilige“, aber wichtige Supportaufgaben

Welche neuen Möglichkeiten gibt es, generative KI-Tools in der Bildung einzusetzen, wenn Nachhilfe am Ende nicht das Richtige ist?

Für Nitta besteht die stärkere Rolle darin, als Assistent von Experten zu fungieren und nicht als Ersatz für einen fachkundigen Tutor. Mit anderen Worten: Anstatt beispielsweise einen Therapeuten zu ersetzen, stellt er sich vor, dass Chatbots einem menschlichen Therapeuten dabei helfen können, Notizen aus einer Sitzung mit einem Patienten zusammenzufassen und zu organisieren.

„Das ist ein sehr hilfreiches Werkzeug und keine KI, die vorgibt, ein Therapeut zu sein“, sagt er. Auch wenn dies von manchen als „langweilig“ empfunden wird, argumentiert er, dass die Superkraft der Technologie darin besteht, „Dinge zu automatisieren, die Menschen nicht gerne tun“.

Im Bildungskontext entwickelt sein Unternehmen KI-Tools, die Lehrern oder menschlichen Tutoren dabei helfen sollen, ihre Arbeit besser zu erledigen. Zu diesem Zweck hat Merlyn Mind den ungewöhnlichen Schritt unternommen, ein eigenes sogenanntes großes Sprachmodell für den Bildungsbereich von Grund auf zu entwickeln.

Selbst dann argumentiert er, dass die besten Ergebnisse erzielt werden, wenn das Modell auf die Unterstützung bestimmter Bildungsbereiche abgestimmt ist, indem es mit geprüften Datensätzen trainiert wird, anstatt sich auf ChatGPT und andere gängige Tools zu verlassen, die auf riesigen Informationsmengen aus dem Internet basieren.

„Was macht ein menschlicher Nachhilfelehrer gut? Sie kennen den Schüler und sorgen für menschliche Motivation“, fügt er hinzu. „Bei uns dreht sich alles darum, dass die KI den Tutor unterstützt.“

spot_img

Neueste Intelligenz

spot_img