Zephyrnet-Logo

ChatGPT: Post-ASU+GSV-Reflexionen zur generativen KI

Datum:

Die eine Frage, die ich in Gesprächen auf dem Flur der ASU+GSV immer wieder hörte, lautete: „Glauben Sie, dass es eine einzige Präsentation geben wird, in der ChatGPT, Large Langauge Models (LLMs) und generative KI nicht erwähnt werden?“

Niemand, den ich getroffen habe, hat „Ja“ gesagt. KI schien das Einzige zu sein, worüber gesprochen wurde.

Und doch klang der Diskurs ein bisschen so, als würde GPT-2 versuchen, die Verwendungen, Stärken und Grenzen von GPT-5 zu erklären. Es war mit vielen leeren Worten gefüllt, die zu gleichen Teilen mit gelegentlichen überraschenden Einsichten und gespenstischen Halluzinationen gespickt waren. 

Dieser Mangel an Klarheit ist kein Spiegelbild der Konferenz oder ihrer Teilnehmer. Vielmehr unterstreicht es das Ausmaß des Wandels, der gerade erst beginnt. Die generative KI ist mindestens so revolutionär wie die grafische Benutzeroberfläche, der Personal Computer, der Touchscreen oder sogar das Internet. Von Kurs Wir verstehen die Auswirkungen noch nicht.

Dennoch ermöglichten die aus GPT-2 gelernten Lehren die Erstellung von GPT-3 und so weiter. Deshalb denke ich heute über einige der Lektionen nach, die ich bisher in Bezug auf generative KI gelernt habe, insbesondere in EdTech.

Generative KI wird zerstören, damit wir erschaffen können

In den meisten Gesprächen zum Thema generative KI kommen die Wörter „ChatGPT“ und „obsolete“ im selben Satz vor. „ChatGPT wird das Schreiben obsolet machen.“ „ChatGPT wird Programmierer überflüssig machen.“ „ChatGPT wird Bildung obsolet machen.“ „ChatGPT wird das Denken und den Menschen obsolet machen.“ Während einige dieser Vorhersagen falsch sein werden, ist das gemeinsame Thema dahinter richtig. Generative KI ist eine kommodifizierende Kraft. Es ist ein Tsunami schöpferischer Zerstörung.

Denken Sie an die Lehrbuchindustrie. Als langjährig e-literate Wie die Leser wissen, habe ich viel darüber nachgedacht, wie die Geschichte enden wird. Aufgrund seiner ungewöhnlichen wirtschaftlichen Gräben ist es eine der letzten Medienproduktkategorien, die durch das Internet dezimiert oder gestört werden. Aber diese Wassergräben wurden einer nach dem anderen trockengelegt. Seine Armee von Vertriebsmitarbeitern, die physisch an die Türen des Campus klopfen? Gegangen. Der Wert dieser teuren Druckproduktions- und Vertriebskapazitäten? Gegangen. Markenreputation? Lange vorbei. 

Erst vor ein paar Tagen, Cengage angekündigt eine 500-Millionen-Dollar-Finanzspritze von seinem Private-Equity-Eigentümer:

„Diese Investition ist eine starke Bestätigung unserer Leistung und Strategie durch einen Investor, der über fundierte Kenntnisse unserer Branche und eine Erfolgsbilanz bei der Wertschöpfung verfügt“, sagte Michael E. Hansen, CEO der Cengage Group. „Indem wir Schulden durch Eigenkapital von Apollo Funds ersetzen, reduzieren wir die ausstehenden Schulden erheblich und geben uns die Möglichkeit, in unser Portfolio wachsender Unternehmen zu investieren.“Cengage Group gibt Investition in Höhe von 500 Millionen US-Dollar von Apollo Funds bekannt (prnewswire.com)

Das ist PR-Sprache für „unsere Private-Equity-Eigentümer entschieden, dass es besser wäre, uns noch eine weitere Geldspritze zu geben, als uns noch einen weiteren Bankrott durchgehen zu lassen.“

Was wird aus dieser schwankenden Branche, wenn Professoren, vielleicht mit Hilfe von Lerndesignern auf dem Campus, ein LLM verwenden können, um ihre eigenen Lehrbücher auszuspucken, die auf die Art und Weise abgestimmt sind, wie sie unterrichten? Was wird passieren, wenn die großen Online-Universitäten beschließen, ihre eigenen Inhalte zu produzieren, die auf ihre Kompetenzen abgestimmt sind und an Bewertungen gebunden sind, die sie selbst nachverfolgen und abstimmen können? 

Lassen Sie sich nicht von der LLM-Halluzinationsangst täuschen. Die Technologie muss (und sollte) keinen perfekten, fertigen Entwurf ohne menschliche Aufsicht produzieren. Es muss nur die Arbeit, die von erfahrenen Menschen verlangt wird, so weit reduzieren, dass sich die Mühe lohnt, ein fertiges, schülersicheres Lehrplanprodukt zu erstellen. 

Wie schwer wäre es für LLM-betriebene Einzelautoren, die Lehrbuchindustrie zu ersetzen? A letzten Wettbewerb forderte KI-Forscher auf, Systeme zu entwickeln, die dem menschlichen Urteilsvermögen bei der Bewertung von Freitext-Kurzantwortfragen entsprechen. „Die Gewinner wurden auf der Grundlage der Genauigkeit der automatisierten Punktzahlen im Vergleich zur menschlichen Zustimmung und der in ihren Vorhersagen beobachteten fehlenden Voreingenommenheit ermittelt.“ Sechs Teilnehmer stellten sich der Herausforderung. Alle sechs wurden auf LLMs gebaut. 

Dies ist ein härterer Test, als irgendetwas in einem typischen Lehrbuch oder Kursware-Produkt von heute zu generieren. 

Die Schulbuchbranche hat aufgrund ihrer langsamen Verfallsrate laufende Investitionen von Private Equity erhalten. Die Verlage gaben genug Geld aus, damit die Slumlords, denen sie gehörten, ihre dreißig Jahre alten Plattformen, zwanzig Jahre alten Lehrbuch-Franchises und 75-Dollar-PDFs gegen Bargeld melken konnten. Wie die Cengage-Ankündigung zeigt, beginnt dieses Modell bereits zusammenzubrechen. 

Wie lange wird es dauern, bis die Überreste dieser Industrie durch generative KI sichtbar und schnell zerfallen? Ich prognostiziere höchstens 24 Monate. 

EdTech ist, wie viele Branchen, mit alten Produktkategorien und Geschäftsmodellen gefüllt, die wie heruntergekommene Stadtblöcke mit heruntergekommenen Gebäuden sind. Sie müssen abgerissen werden, bevor etwas Besseres an ihrer Stelle gebaut werden kann. Wir werden ein besseres Gefühl für die neuen Modelle bekommen, die aufsteigen werden, wenn wir sehen, wie alte Modelle fallen. Generative KI ist eine Abrissbirne.

„Chat“ ist Konversation

Ich bezahle 20 $/Monat für ein Abonnement von ChatGPT Plus. Ich spiele nicht nur damit. Ich benutze es jeden Tag als Werkzeug. Und ich behandle es nicht wie einen Anrufbeantworter mit magischen Informationen. Wenn Sie eine bessere Version einer Suchmaschine wünschen, verwenden Sie Microsoft Bing Chat. Um echten Nutzen aus ChatGPT zu ziehen, müssen Sie es weniger wie ein allwissendes Orakel und mehr wie einen Kollegen behandeln. Es weiß einige Dinge, die Sie nicht wissen und umgekehrt. Es ist klug, kann aber falsch sein. Wenn Sie damit nicht einverstanden sind oder seine Begründung nicht verstehen, können Sie ihn anfechten oder Folgefragen stellen. Sie ist in Grenzen in der Lage, ihre Antwort „umzudenken“. Und es kann an einem anhaltenden Gespräch teilnehmen, das irgendwohin führt. 

Zum Beispiel wollte ich lernen, wie man ein LLM so einstellt, dass es qualitativ hochwertige Rubriken generieren kann, indem man es mit einer Reihe von von Menschen erstellten Rubriken trainiert. Das erste Stück, das ich lernen musste, war, wie LLMs abgestimmt werden. Welche magischen Beschwörungsformeln für die Computerprogrammierung brauche ich, damit jemand sie für mich schreibt?

Wie sich herausstellt, lautet die Antwort zumindest im Allgemeinen keine. LLMs werden in einfachem Englisch abgestimmt. Sie geben ihm mehrere Eingabepaare, die ein Benutzer in das Textfeld eingeben kann, und die gewünschte Ausgabe von der Maschine. Angenommen, Sie möchten das LLM so einstellen, dass es Kochrezepte bereitstellt. Ihr Tuning-„Programm“ könnte in etwa so aussehen:

  • Input: Wie mache ich Rührei?
  • Ausgabe: [Rezept]

Offensichtlich würde das von Ihnen angegebene Rezeptausgabebeispiel eine Reihe strukturierter Komponenten enthalten, wie eine Zutatenliste und Schritte zum Kochen. Bei genügend Beispielen beginnt das LLM, Muster zu erkennen. Sie bringen ihm bei, wie man auf eine Art von Frage oder Bitte antwortet, indem Sie ihm Beispiele für gute Antworten zeigen. 

Ich weiß das, weil ChatGPT es mir erklärt hat. Es wurde auch erklärt, dass das GPT-4-Modell noch nicht auf diese Weise abgestimmt werden kann, aber andere LLMs, einschließlich früherer Versionen von GPT, können dies tun. Mit etwas mehr Konversation konnte ich lernen, wie LLMs gestimmt werden, welche einstellbar sind und dass ich vielleicht sogar die „Programmierfähigkeiten“ habe, die notwendig sind, um eines dieser Biester selbst zu stimmen. 

Es ist eine aufregende Entdeckung für mich. Für jede Rubrik kann ich den Input schreiben. Ich kann die Art der Bewertung beschreiben, die ich möchte, einschließlich der wichtigen Details, die ich ansprechen möchte. Ich, Michael Feldstein, bin in der Lage, die Hälfte des „Programms“ zu schreiben, das benötigt wird, um den Algorithmus für eines der fortschrittlichsten KI-Programme der Welt abzustimmen. 

Aber die gewünschte Ausgabe, eine Rubrik, wird normalerweise als Tabelle ausgedrückt. LLMs sprechen Englisch. Sie können Tabellen erstellen, müssen aber ihre Bedeutung auf Englisch ausdrücken und diese Bedeutung dann in das Tabellenformat übersetzen. Ähnlich wie ich. Das ist eine lustige Art von Rätsel. Normalerweise kann ich auf Englisch ausdrücken, was ich will, aber ich weiß nicht, wie ich es in ein anderes Format bringen soll. Dieses Mal muss ich herausfinden, wie ich in englischen Sätzen ausdrücken kann, was die Tabelle bedeutet.

Ich habe ein Gespräch mit ChatGPT darüber, wie das geht. Zuerst frage ich ihn, wie das fertige Produkt aussehen würde. Es erklärt, wie man eine Tabelle im Klartext ausdrückt, am Beispiel einer Rubrik. 

OK! Das macht Sinn. Sobald es mir das Beispiel gibt, verstehe ich es. Da ich ein Mensch bin und mein Ziel verstehe, während ChatGPT nur ein Sprachmodell ist – wie es mich gerne daran erinnert – sehe ich Möglichkeiten zur Feinabstimmung dessen, was es mir gegeben hat. Aber es hat mir das grundlegende Konzept beigebracht.

Wie konvertiere ich jetzt? viele Rubriktabellen? Ich möchte nicht all diese Sätze manuell schreiben, um die Spalten, Zeilen und Zellen der Tabelle zu beschreiben. Ich weiß zufällig, dass ich die Tabelle als CSV exportieren kann, wenn ich die Tabelle in einer Tabelle (im Gegensatz zu einem Textverarbeitungsdokument) erhalten kann. Vielleicht würde das helfen. Ich frage ChatGPT: „Könnte ein Computerprogramm diese Sätze aus einem CSV-Export erstellen?“ 

"Warum ja! Solange die Tabelle Überschriften für jede Spalte hat, könnte ein Programm diese Sätze aus einer CSV generieren.“ 

„Können Sie mir ein Programm schreiben, das dies tut?“ 

"Warum ja! Wenn Sie mir die Überschriften geben, kann ich Ihnen ein Python-Programm schreiben.“ 

Es warnt mich, dass ein menschlicher Computerprogrammierer seine Arbeit überprüfen sollte. Das sagt man immer. 

In diesem speziellen Fall ist das Programm so einfach, dass ich nicht sicher bin, ob ich diese Hilfe benötigen würde. Es sagt mir auch, wenn ich frage, dass es ein Programm schreiben kann, das meine Beispiele in großen Mengen in das GPT-3-Modell importieren würde. Und es warnt mich wieder, dass ein menschlicher Programmierer seine Arbeit überprüfen sollte. 

ChatGPT hat mir beigebracht, wie ich ein LLM optimieren kann, um Rubriken zu erstellen. Alleine. Später haben wir besprochen, wie wir das Modell testen und weiter verbessern können, je nachdem, wie viele Rubriken ich als Beispiele habe. Wie gut wären die Ergebnisse? Ich weiß es noch nicht. Aber ich will es herausfinden. 

Nicht wahr?

LLMs werden nicht die Notwendigkeit aller Kenntnisse und Fähigkeiten ersetzen

Beachten Sie, dass ich sowohl Kenntnisse als auch Fähigkeiten benötigte, um das zu bekommen, was ich von ChatGPT brauchte. Ich musste Rubriken verstehen, wie eine gute aussieht und wie man den Zweck einer Rubrik beschreibt. Ich musste das Problem des Tabellenformats so weit durchdenken, dass ich die richtigen Fragen stellen konnte. Und ich musste während des gesamten Gesprächs mehrere Aspekte des Ziels und der Bedürfnisse klären, um die Antworten zu erhalten, die ich wollte. Die Nützlichkeit von ChatGPT wird durch meine Fähigkeiten und Einschränkungen als Betreiber geformt und begrenzt. 

Diese Dynamik wurde deutlicher, als ich mit ChatGPT untersuchte, wie man ein Kursunterlagenmodul generiert. Während diese Aufgabe unkompliziert klingt, hat sie mehrere Arten von Komplexität. Erstens haben gut gestaltete Courseware-Module aus der Perspektive des Lerndesigns viele miteinander verbundene Teile. Lernziele beziehen sich auf Bewertungen und spezifische Inhalte. Selbst innerhalb einer so einfachen Bewertung wie einer Multiple-Choice-Frage (MCQ) gibt es viele miteinander verbundene Teile. Da ist der „Stamm“ oder die Frage. Es gibt „Ablenker“, die falsche Antworten sind. Jede Antwort kann Feedback enthalten, das auf eine bestimmte Weise geschrieben ist, um einen pädagogischen Zweck zu unterstützen. Jede Frage kann auch mehrere aufeinanderfolgende Hinweise enthalten, von denen jeder auf eine bestimmte Weise geschrieben ist, um einen bestimmten pädagogischen Zweck zu unterstützen. Diese Beziehungen bekommen – diese semantisch Beziehungen – richtig, führt zu effektiveren Lehrinhalten. Es wird auch eine Struktur enthalten, die eine bessere Lernanalyse unterstützt. 

Wichtig ist, dass viele dieser pädagogischen Konzepte nützlich sind, um eine Vielzahl unterschiedlicher Lernerfahrungen zu generieren. Die Beziehungen, die ich dem LLM beizubringen versuche, stammen zufällig aus Kursunterlagen. Aber viele dieser Elemente des Lerndesigns sind auch notwendig, um Simulationen und andere Arten von Lernerfahrungen zu entwerfen. Ich unterrichte den LLM nicht nur über Kursunterlagen. Ich unterrichte es über das Lehren. 

Wie auch immer, das Einspeisen ganzer Module in ein LLM als Ausgabebeispiele würde nicht garantieren, dass die Software all diese Feinheiten und Beziehungen erfassen würde. ChatGPT wusste nichts von der Komplexität der Aufgabe, die ich ausführen möchte. Ich musste es ihnen erklären. Nachdem es „verstanden“ hatte, konnten wir uns über das Problem unterhalten. Gemeinsam haben wir drei verschiedene Möglichkeiten entwickelt, um Inhaltsbeispiele in Input-Output-Paare zu zerlegen. Um das System so zu trainieren, dass es so viele der Beziehungen und Feinheiten wie möglich erfasst, wäre es am besten, den LLM auf allen drei Wegen mit demselben Inhalt zu versorgen.

Die meisten öffentlich verfügbaren Kursunterlagen-Module sind nicht konsequent und explizit so gestaltet, dass diese Art des Slicing und Dicing einfach (oder überhaupt möglich) wäre. Glücklicherweise weiß ich zufällig, wo ich einige qualitativ hochwertige Module bekommen kann, die in XML ausgezeichnet sind. Da ich nur wenig über XML weiß und wie diese Module es verwenden, konnte ich mich mit ChatGPT darüber unterhalten, welches XML entfernt werden soll, die Vor- und Nachteile, den Rest ins Englische zu konvertieren, anstatt sie als XML zu belassen, und wie Verwenden Sie die XML Document Type Definition (DTD), um der Software einige der expliziten und impliziten Beziehungen zwischen den Modulteilen beizubringen und wie Sie die Software schreiben, die die Arbeit der Konvertierung der Module in Eingabe-Ausgabe-Paare übernimmt. 

Am Ende des Erkundungsgesprächs war klar, dass die Arbeit, die ich erledigen möchte, mehr Softwareprogrammierfähigkeiten erfordert, als ich habe, selbst mit der Hilfe von ChatGPT. Aber jetzt kann ich abschätzen, wie viel Zeit ich von einem Programmierer benötige. Ich kenne auch das Niveau der Fähigkeiten, die der Programmierer benötigt. So kann ich die Kosten für die Erledigung der Arbeiten abschätzen. 

Um zu diesem Ergebnis zu kommen, musste ich auf beträchtliches Vorwissen zurückgreifen. Noch wichtiger war, dass ich auf beträchtliche sprachliche und kritische Denkfähigkeiten zurückgreifen musste. 

Jeder, der jemals gesagt hat, dass ein Philosophiestudium wie meines nicht praktisch ist, kann meinen Staub fressen. Sokrates war ein schneller Ingenieur. Die meisten westlichen Philosophen beschäftigen sich mit irgendeiner Form von Gedankenkette anregen um ihre Argumente zu strukturieren. 

Fähigkeiten und Wissen sind nicht tot. Schreib- und Denkfähigkeiten sind es ganz sicher nicht. Weit davon entfernt. Wenn Sie an mir zweifeln, fragen Sie ChatGPT: „Wie könnte das Unterrichten von Studenten über die Philosophie und Methode von Sokrates ihnen helfen, bessere schnelle Ingenieure zu werden?“ Sehen Sie, was es zu sagen hat. 

(Für diese Frage habe ich die GPT-4-Einstellung verwendet, die auf ChatGPT Plus verfügbar ist.)

Bewertungen sind auch nicht tot

Denken Sie darüber nach, wie eines der oben beschriebenen Projekte als projektbasierte Lernaufgabe aufgebaut werden könnte. Die Schüler konnten auf die gleichen Tools zugreifen wie ich: ein LLM wie ChatGPT und ein LLM-erweitertes Suchtool wie Bing Chat. Der Haken ist, dass sie die von der Schule bereitgestellten verwenden müssten. Mit anderen Worten, sie müssten ihre Arbeit zeigen. Wenn Sie ein Diskussionsforum und ein paar relevante Tutorials hinzufügen, haben Sie eine wirklich interessante Lernerfahrung. 

Das könnte auch beim Schreiben funktionieren. Mein nächstes persönliches Projekt mit ChatGPT ist es, ein Analysepapier, das ich für einen Kunden geschrieben habe, in ein Whitepaper umzuwandeln (natürlich mit seinem Segen). Ich habe bereits die harte Arbeit geleistet. Die Analyse ist von mir. Die Argumentationsstruktur und der Sprachstil sind von mir. Aber ich habe mit Schreibblockaden zu kämpfen. Ich werde versuchen, ChatGPT zu verwenden, um es in das gewünschte Format umzustrukturieren und Kontext für ein externes Publikum hinzuzufügen.

Erinnern Sie sich an meinen früheren Punkt, dass die generative KI eine kommodifizierende Kraft ist? Es wird generisches Schreiben absolut zur Ware machen. Ich bin damit einverstanden, genauso wie ich damit einverstanden bin, dass Schüler in Mathematik und Physik Taschenrechner verwenden sobald sie die Mathematik verstanden haben, die der Taschenrechner für sie durchführt. 

Die Schüler müssen aus einem einfachen Grund lernen, wie man allgemeine Prosa schreibt. Wenn sie sich auf außergewöhnliche Weise ausdrücken wollen, sei es durch clevere Ingenieurskunst oder schöne Kunst, müssen sie die Mechanik verstehen. Die Grundlagen des generischen Schreibens sind Bausteine. Die subtileren Mechanismen sind Teil des Werts, den menschliche Autoren hinzufügen können, um zu vermeiden, dass sie von der generativen KI zur Ware gemacht werden. Die Unterschiede zwischen einem Komma, einem Semikolon und einem Em-Bindestrich im Ausdruck sind die Arten von feinkörnigen Entscheidungen, die ausdrucksstarke Autoren treffen. Ebenso wie lange Sätze gegenüber kurzen, Entscheidungen darüber, wann und wie oft Adjektive verwendet werden, die Wahl zwischen ähnlichen, aber nicht identischen Wörtern, das Umbrechen von Absätzen an der richtigen Stelle für Klarheit und Betonung und so weiter. 

Während ich beispielsweise ein LLM verwenden würde, um einen Artikel, den ich bereits geschrieben habe, in ein Whitepaper umzuwandeln, kann ich mir nicht vorstellen, es zum Schreiben eines neuen Blog-Beitrags zu verwenden. Der Wert ein e-literate liegt in meiner Fähigkeit, neue Ideen präzise und klar zu kommunizieren. Obwohl ich keinen Zweifel daran habe, dass ein LLM meine Satzstrukturen imitieren könnte, sehe ich keine Möglichkeit, dass es mir eine Abkürzung für die Art von ausdrucksstarker Gedankenarbeit bieten könnte, die den Kern meines professionellen Handwerks ausmacht.

Wenn wir LLMs nutzen können, um Schülern dabei zu helfen, zu lernen, wie man … ähm … prosaische Prosa schreibt, dann können sie damit beginnen, ihre LLM-„Rechner“ in ihren Kommunikations-„Physik“-Klassen zu verwenden. Sie können sich auf ihre klare Denkweise und wirklich exzellente Kommunikation konzentrieren. Wir können selten dieses Niveau an Ausdrucksstärke unterrichten. Jetzt können wir es vielleicht auf einer breiteren Basis tun. 

In ihrem aktuellen Entwicklungsstand sind LLMs wie 3D-Drucker für die Wissensarbeit. Sie verlagern die menschliche Arbeit von der Ausführung zum Entwurf. Vom Machen zum Gestalten. Von mehr Antworten bis hin zu besseren Fragen. 

Wir lesen unzählige Geschichten über die drohende Vernichtung der Arbeitskraft, teilweise weil unsere Wirtschaft das Büroäquivalent der Fließbandarbeiter des frühen 20. Jahrhunderts benötigt hat. Menschen, die Vollzeitjobs haben und Tweets schreiben. Oder Aktualisierungen desselben Berichts. Oder HR-Handbücher. Deshalb ist unser Bildungssystem darauf ausgelegt, Menschen für diese Arbeit auszubilden. 

Wir gehen davon aus, dass Massen von Menschen nutzlos werden, ebenso wie Bildung, weil wir Schwierigkeiten haben, uns ein Bildungssystem vorzustellen, das Menschen lehrt –alle Menschen aus allen sozioökonomischen Schichten – um bessere Denker zu werden und nicht nur bessere Wissende und Handelnde. 

Aber ich glaube, wir können es schaffen. Der schwierige Teil ist die Vorstellung. Wir sind darin nicht ausgebildet. Vielleicht lernen unsere Kinder, darin besser zu sein als wir. Wenn wir sie anders unterrichten, als es uns beigebracht wurde. 

Wahrscheinlich kurzfristige Weiterentwicklung der Technologie

Diejenigen von uns, die nicht in KI eingetaucht sind – mich eingeschlossen – waren erstaunt über das schnelle Tempo des Wandels. Ich werde nicht so tun, als könnte ich um Ecken sehen. Aber gewisse kurzfristige Trends sind für Laien wie mich, die genauer hinschauen als noch vor zwei Monaten, bereits erkennbar. 

Erstens breiten sich generative KI-Modelle bereits aus und zeigen an den Rändern Hinweise auf eine bevorstehende Kommerzialisierung. Wir haben den Eindruck, dass diese Programme immer so groß und so teuer im Betrieb sein werden, dass nur riesige Cloud-Unternehmen mit neuen Modellen an den Tisch kommen werden. Dass der Kampf OpenAI/Microsoft gegen Google sein wird. Es wird gemunkelt, dass GPT-4 über eine Billion Knoten hat. Ein so großes Modell braucht eine Menge Pferdestärken, um es zu bauen, zu trainieren und zu betreiben. 

Aber Forscher entwickeln bereits clevere Techniken, um aus viel kleineren Modellen eine beeindruckende Leistung herauszuholen. Zum Beispiel, Vicuña, ein Modell, das von Forschern an einigen Universitäten entwickelt wurde, ist in mindestens einem Test zu etwa 90 % so gut wie GPT-4 und hat nur 12 Milliarden Parameter. Um das ins rechte Licht zu rücken, Vicuña kann auf einem anständigen Laptop laufen. Das ganze Ding. Das Training kostete 300 $ (im Gegensatz zu den Milliarden von Dollar, die in ChatGPT und Google Bard geflossen sind). Vicuña ist ein frühes (wenn auch unvollkommenes) Beispiel für die kommende Welle. Ein weiteres LLM scheint praktisch jede Woche mit neuen Behauptungen aufzutauchen, schneller, kleiner, intelligenter, billiger und genauer zu sein. 

Ein ähnliches Phänomen tritt bei der Bilderzeugung auf. Apple ist schnell dazu übergegangen, Softwareunterstützung für die Optimierung des Open-Source-Stable-Diffusion-Modells auf seiner Hardware bereitzustellen. Sie können jetzt ein Bildgeneratorprogramm auf Ihrem Macbook mit anständiger Leistung ausführen. Ich habe Spekulationen gelesen, dass das Unternehmen die nächste Generation seiner Apple Silicon-Mikrochips mit Hardwarebeschleunigung verfolgen wird.

„Sokrates tippt auf einem Laptop“, interpretiert von Stable Diffusion

Diese Modelle werden nicht in allen Dingen gleich gut sein. Die Unternehmensgiganten werden weiterhin innovativ sein und uns wahrscheinlich mit neuen Fähigkeiten überraschen. In der Zwischenzeit werden die kleineren, billigeren und Open-Source-Alternativen für viele Aufgaben mehr als ausreichend sein. Google hat einen schönen Begriff geprägt: „Mustergarten“. Kurzfristig wird es kein Modell geben, das sie alle beherrscht, oder gar ein Duopol von Modellen. Stattdessen werden wir viele Modelle haben, von denen jedes für verschiedene Zwecke am besten geeignet ist. 

Die Arten von pädagogischen Anwendungsfällen, die ich zuvor in diesem Beitrag beschrieben habe, sind relativ einfach. Es ist möglich, dass wir in den nächsten 12 bis 24 Monaten Verbesserungen bei der Fähigkeit zur Generierung dieser Art von Lerninhalten feststellen werden, wonach wir möglicherweise einen Punkt mit sinkenden Erträgen erreichen. Wir können unsere Bildungs-LLMs lokal auf unseren Laptops (oder sogar unseren Telefonen) ausführen, ohne uns auf einen großen Cloud-Anbieter verlassen zu müssen, der ein teures (und kohlenstoffintensives) Modell betreibt. 

Eines der größten Hindernisse für diese wachsende Vielfalt ist nicht technologischer Natur. Es sind die Trainingsdaten. Fragen zur Verwendung von urheberrechtlich geschützten Inhalten zum Trainieren dieser Modelle sind ungelöst. Verletzungsklagen sind Aufspringen. Es kann sich herausstellen, dass die größte kurzfristige Herausforderung für bessere LLMs im Bildungsbereich der Zugang zu zuverlässigen, gut strukturierten Schulungsinhalten sein kann, die nicht durch Urheberrechtsprobleme belastet sind. 

So viel zum Nachdenken …

Ich plappere ein bisschen in diesem Beitrag. Dieser Trend hat viele, viele Aspekte, über die man nachdenken muss. Zum Beispiel. Ich habe das Plagiatsproblem übersprungen, weil bereits so viele Artikel darüber geschrieben wurden. Ich habe das Halluzinationsproblem nur leicht berührt. Für mich sind dies vorübergehende Besessenheiten, die aus unserem Kampf entstehen, zu verstehen, wofür diese Technologie gut ist und wie wir in Zukunft arbeiten, spielen, denken und erschaffen werden. 

Einer der lustigen Teile an diesem Moment ist, so viele Köpfe bei der Arbeit an den Möglichkeiten zu beobachten, einschließlich Ideen, die von Klassenlehrern hochsprudeln und nicht viel Aufmerksamkeit erhalten. Für eine lustige Kostprobe dieser Kreativität, schau mal rein Das ABC von ChatGPT zum Lernen von Devan Walton. 

Tu dir selbst einen Gefallen. Erkunden. Tauchen Sie ein in sie. Wir sind auf einem neuen Planeten gelandet. Ja, wir sind Gefahren ausgesetzt, von denen einige unbekannt sind. Still. Ein neuer Planet. Und wir sind dabei.

Schnallen Sie sich Ihren Helm an und go.

spot_img

Neueste Intelligenz

spot_img