Logo Zephyrnet

Technolog spędził lata na budowaniu nauczyciela chatbota AI. Zdecydował, że nie da się tego zrobić. – Wiadomości EdSurge

Data:

Kiedy Satya Nitta pracował w IBM, wraz z zespołem współpracowników podjął się śmiałego zadania: wykorzystaj najnowsze zdobycze sztucznej inteligencji do zbudowania nowego rodzaju osobistego, cyfrowego nauczyciela.

Miało to miejsce zanim istniał ChatGPT i mniej osób mówiło o cudach sztucznej inteligencji. Ale Nitta pracował z być może najbardziej znanym wówczas systemem sztucznej inteligencji, Watsonem IBM. To narzędzie AI przyniosło kilka dużych zwycięstw, w tym bicie ludzi w quizie Jeopardy w 2011 roku.

Nitta mówi, że był optymistą, że Watson będzie w stanie zapewnić wszechstronnego nauczyciela, wiedział jednak, że to zadanie będzie niezwykle trudne. „Pamiętam, jak mówiłem kierownictwu IBM, że będzie to podróż trwająca 25 lat” – powiedział niedawno EdSurge.

Mówi, że jego zespół spędził około pięciu lat na próbach i po drodze pomógł w przekształceniu kilku małych prób w produkty edukacyjne, takie jak pilotażowy asystent chatbota, który był część internetowego systemu kursów psychologicznych firmy Pearson w 2018 roku.

Ostatecznie jednak Nitta zdecydował, że chociaż budząca obecnie emocje technologia generatywnej sztucznej inteligencji przynosi nowe możliwości, które zmienią edukację i inne dziedziny, technologia ta po prostu nie jest w stanie zostać uniwersalnym osobistym nauczycielem i nie będzie przynajmniej przez dziesięciolecia, jeśli w ogóle.

„Będziemy mieli latające samochody, zanim będziemy mieli nauczycieli zajmujących się sztuczną inteligencją” – mówi. „To głęboko ludzki proces, któremu sztuczna inteligencja beznadziejnie nie jest w stanie sprostać w znaczący sposób. To jak bycie terapeutą albo pielęgniarką.”

Zamiast tego był współzałożycielem nowej firmy zajmującej się sztuczną inteligencją o nazwie Merlyn Mind, która tworzy inne rodzaje narzędzi opartych na sztucznej inteligencji dla nauczycieli.

Tymczasem wiele firm i liderów edukacyjnych ciężko pracuje obecnie, goniąc za marzeniem o tworzeniu nauczycieli zajmujących się sztuczną inteligencją. Nawet niedawny Zarządzenie wykonawcze Białego Domu stara się pomóc sprawie.

Na początku tego miesiąca Sal Khan, lider organizacji non-profit Khan Academy, powiedział New York Times: „Jesteśmy u progu wykorzystania sztucznej inteligencji do prawdopodobnie największej pozytywnej transformacji, jaką kiedykolwiek widziała edukacja. Zamierzamy to osiągnąć, zapewniając każdemu uczniowi na planecie sztucznie inteligentnego, ale niesamowitego osobistego nauczyciela”.

Khan Academy była jedną z pierwszych organizacji, która wykorzystała ChatGPT do opracowania takiego nauczyciela, którego nazwała Khanmigo i który obecnie znajduje się w fazie pilotażowej w szeregu szkół.

System Khana zawiera jednak odstraszające ostrzeżenie, w którym zauważa, że ​​„czasami popełnia błędy”. Ostrzeżenie jest konieczne, ponieważ wszystkie najnowsze chatboty AI cierpią na tzw. „halucynacje” — słowo używane do opisania sytuacji, w których chatbot po prostu fabrykuje szczegóły, nie znając odpowiedzi na pytanie zadane przez użytkownika.

Eksperci AI są zajęci próbami zniwelowania problemu halucynacji, a jednym z najbardziej obiecujących podejść do tej pory jest wprowadzenie osobnego chatbota AI, który sprawdza wyniki systemu takiego jak ChatGPT i sprawdza, czy prawdopodobnie nie zmyślił szczegółów. Właśnie to próbowali naukowcy z Georgia Techna przykład w nadziei, że ich system wielochatbotowy dotrze do punktu, w którym wszelkie fałszywe informacje zostaną usunięte z odpowiedzi, zanim zostaną one pokazane uczniowi. Nie jest jednak jeszcze jasne, czy podejście to może osiągnąć poziom dokładności akceptowany przez nauczycieli.

Jednak w tym krytycznym momencie rozwoju nowych narzędzi AI warto zadać sobie pytanie, czy nauczyciel chatbota jest właściwym celem dla programistów. A może istnieje lepsza metafora niż „nauczyciel” na określenie tego, co generatywna sztuczna inteligencja może zrobić, aby pomóc uczniom i nauczycielom?

„Zawsze aktywny pomocnik”

Michael Feldstein spędza obecnie dużo czasu na eksperymentowaniu z chatbotami. Jest wieloletnim konsultantem i blogerem w dziedzinie technologii edtech, a w przeszłości nie wahał się krytykować tego, co uważał za nadmierny szum wokół firm sprzedających narzędzia edtech.

W 2015 on słynie z krytyki obiecuje najnowocześniejszą wówczas sztuczną inteligencję w edukacji — narzędzie firmy Knewton. Dyrektor generalny Knewton, Jose Ferreira, powiedział, że jego produkt będzie „jak robot-nauczyciel na niebie, który będzie w stanie częściowo czytać w Twoich myślach i co do percentyla dowiedzieć się, jakie są Twoje mocne i słabe strony”. Co skłoniło Feldsteina do odpowiedzi, że dyrektor generalny „sprzedawał olej wężowy”, ponieważ – argumentował Feldstein – narzędzie to w żaden sposób nie spełniało tej obietnicy. (Aktywa Knewton były po cichu sprzedane kilka lat później.)

Co więc Feldstein sądzi o najnowszych obietnicach ekspertów AI, że w niedalekiej przyszłości mogą pojawić się skuteczni korepetytorzy?

„ChatGPT zdecydowanie nie jest olejem wężowym — wręcz przeciwnie” – mówi EdSurge. „To nie jest także robot-nauczyciel na niebie, który może częściowo czytać w twoich myślach. Ma nowe możliwości i musimy zastanowić się, jakie funkcje korepetycji może zapewnić dzisiejsza technologia, które byłyby przydatne dla uczniów”.

Uważa jednak, że korepetycje to przydatny sposób, aby zobaczyć, co potrafi ChatGPT i inne nowe chatboty. I twierdzi, że wynika to z osobistego doświadczenia.

Feldstein ma krewnego, który walczy z krwotokiem mózgowym, dlatego Feldstein zwrócił się do ChatGPT, aby udzielić mu osobistych lekcji na temat zrozumienia stanu zdrowia i rokowań ukochanej osoby. W miarę jak Feldstein otrzymuje aktualizacje od znajomych i rodziny na Facebooku, mówi, zadaje pytania w bieżącym wątku na ChatGPT, aby lepiej zrozumieć, co się dzieje.

„Kiedy zadam to pytanie we właściwy sposób, uzyskam odpowiednią ilość szczegółów na temat: «Co dzisiaj wiemy na temat jej szans na powrót do zdrowia?»” – mówi Feldstein. „To nie to samo, co rozmowa z lekarzem, ale nauczyła mnie w znaczący sposób na poważny temat i pomogła mi zdobyć większą wiedzę na temat stanu mojego bliskiego”.

Feldstein twierdzi, że nazwałby to nauczycielem, ale twierdzi, że nadal ważne jest, aby firmy nie sprzedawały nadmiernie swoich narzędzi sztucznej inteligencji. „Wyrządziliśmy krzywdę, mówiąc, że to są te wszystkowiedzące skrzynki lub że zrobią to za kilka miesięcy” – mówi. „To narzędzia. To dziwne narzędzia. Zachowują się niewłaściwie – podobnie jak ludzie”.

Zwraca uwagę, że nawet ludzcy korepetytorzy mogą popełniać błędy, ale większość uczniów umawiając się z ludzkim korepetytorem ma świadomość, w co się pakują.

„Kiedy odwiedzasz centrum korepetycji na swojej uczelni, okazuje się, że nie wiedzą wszystkiego. Nie wiesz, jak są wyszkoleni. Istnieje ryzyko, że powiedzą Ci coś złego. Ale ty wejdź i uzyskaj pomoc, jaką możesz.

Jakkolwiek nazwiesz te nowe narzędzia sztucznej inteligencji, twierdzi, przydatne będzie „posiadanie zawsze aktywnego pomocnika, któremu możesz zadawać pytania”, nawet jeśli ich wyniki będą jedynie punktem wyjścia do dalszej nauki.

„Nudne”, ale ważne zadania wsparcia

Jakie są nowe sposoby wykorzystania generatywnych narzędzi AI w edukacji, jeśli korepetycje okażą się nieodpowiednie?

Dla Nitty ważniejszą rolą jest pełnienie roli asystenta ekspertów, a nie zastąpienie nauczyciela-eksperta. Innymi słowy, zamiast zastępować, powiedzmy, terapeutę, wyobraża sobie, że chatboty mogą pomóc ludzkiemu terapeucie podsumować i uporządkować notatki z sesji z pacjentem.

„To bardzo pomocne narzędzie, a nie sztuczna inteligencja udająca terapeutę” – mówi. Choć niektórzy mogą to uznać za „nudne”, twierdzi, że supermocą tej technologii jest „automatyzowanie rzeczy, których ludzie nie lubią robić”.

W kontekście edukacyjnym jego firma tworzy narzędzia AI, które mają pomóc nauczycielom lub nauczycielom w lepszym wykonywaniu ich pracy. W tym celu firma Merlyn Mind podjęła niezwykły krok, budując od podstaw własny, tak zwany duży model językowy, przeznaczony dla edukacji.

Nawet wtedy twierdzi, że najlepsze wyniki uzyskuje się, gdy model jest dostrojony do wspierania określonych dziedzin edukacji, poprzez szkolenie z wykorzystaniem sprawdzonych zbiorów danych, a nie poleganie na ChatGPT i innych popularnych narzędziach czerpiących z ogromnych ilości informacji z Internetu.

„Co robi dobrze ludzki nauczyciel? Znają ucznia i dostarczają ludzkiej motywacji – dodaje. „Chodzi nam o to, aby sztuczna inteligencja wzmacniała pracę nauczyciela”.

spot_img

Najnowsza inteligencja

spot_img