Zephyrnet-Logo

Eine kurze Geschichte der generativen KI – DATAVERSITY

Datum:

generative KIgenerative KI
Ole.CNX / Shutterstock

Generative KI hat eine relativ kurze Geschichte. Die Technologie wurde erstmals in den 1960er Jahren in Form von Chatbots eingeführt. Dabei handelt es sich um eine Form der künstlichen Intelligenz, die derzeit in Sekundenschnelle hochwertige Texte, Bilder, Videos, Audiodaten und synthetische Daten erzeugen kann. Doch erst 2014, als das Konzept des Generative Adversarial Network (GAN) eingeführt wurde, entwickelte sich die generative KI so weit, dass sie Bilder, Videos und Audio erstellen konnte, die authentische Aufnahmen realer Menschen zu sein scheinen.

Derzeit ist generative KI ein Hauptbestandteil von ChatGPT und seinen Variationen.

Die 1950s

Generative KI basiert auf Maschinelles Lernen und Deep-Learning-Algorithmen. Der erste Algorithmus für maschinelles Lernen wurde 1952 von Arthur Samuel für das Damespiel entwickelt – er erfand auch den Begriff „maschinelles Lernen“.

Das erste trainierbare „neuronale Netzwerk“ wurde genannt das Perzeptronund wurde 1957 von einem Psychologen der Cornell University, Frank Rosenblatt, entwickelt. Das Design des Perceptrons war modernen neuronalen Netzen sehr ähnlich, verfügte jedoch nur über „eine“ Schicht mit einstellbaren Schwellenwerten und Gewichten, die die Eingabe- und Ausgabeschicht trennte. Dieses System scheiterte, weil es zu zeitaufwändig war.

Die 1960s und 1970s

Das erste historische Beispiel generativer KI hieß ELIZA. Es könnte auch als eine frühe Version von Chatbots betrachtet werden. Es wurde 1961 von Joseph Weizenbaum geschaffen. ELIZA war ein sprechendes Computerprogramm, das auf einen Menschen reagierte und dabei eine natürliche Sprache und Antworten verwendete, die so gestaltet waren, dass sie einfühlsam klangen.

In den 1960er und 70er Jahren wurden Grundlagenforschung für Computer Vision und einige grundlegende Erkennungsmuster durchgeführt. Die Gesichtserkennung machte einen dramatischen Sprung nach vorne, als Ann B. Lesk, Leon D. Harmon und AJ Goldstein ihre Genauigkeit deutlich steigerten (Mensch-Maschine-Interaktion bei der Identifizierung menschlicher Gesichter, 1972). Das Team entwickelte 21 spezifische Marker, darunter Merkmale wie die Dicke der Lippen und die Farbe der Haare, um Gesichter automatisch zu identifizieren. 

In den 1970er Jahren begann Seppo Linnainmaa mit der Nutzung der Backpropagation. Der Begriff "Backpropagation„ist ein Prozess der Rückwärtspropagierung von Fehlern als Teil des Lernprozesses. Die erforderlichen Schritte sind:

  1. Wird am Ausgabeende verarbeitet
  2. Wird zur Rückwärtsverteilung gesendet 
  3. Zum Trainieren und Lernen durch die Netzwerkebenen bewegt 

(Backpropagation wird beim Training tiefer neuronaler Netze verwendet.) 

Der erste KI-Winter trennt maschinelles Lernen und künstliche Intelligenz

Der erste KI-Winter begann und endete Von etwa 1973 bis 1979 – es wurden Versprechen gemacht, aber die Erwartungen wurden nicht erfüllt. Agenturen, die die Forschung im Bereich der künstlichen Intelligenz finanziert hatten (Darpa, NRC und die britische Regierung), waren plötzlich in Verlegenheit darüber, dass ihre Entwicklung nicht vorankam. 

Allerdings entwickelte sich das maschinelle Lernen (ML) weiter. Nicht, weil es immer noch staatliche Mittel erhielt, sondern weil maschinelles Lernen als Reaktionsinstrument für Unternehmen äußerst nützlich geworden war. Maschinelles Lernen Ursprünglich war es als Trainingstechnik für KI gedacht, man entdeckte jedoch, dass es auch zur Ausführung einfacher Aufgaben eingesetzt werden konnte, etwa zum Beantworten von Telefongesprächen und zum Weiterleiten von Anrufen an die entsprechende Person. Während ML-Programme möglicherweise nicht in der Lage sind, eine intelligente Konversation zu führen, könnten sie grundlegende, aber sehr nützliche Aufgaben ausführen. Unternehmen hatten kein Interesse daran, auf ein kostengünstiges und nützliches Tool zu verzichten.

Unternehmen entschieden sich dafür, ihre eigene Forschung zur Entwicklung des maschinellen Lernens zu finanzieren, und ehemalige Forscher organisierten sich in einer separaten Branche neu – bis sie in den 1990er Jahren erneut mit KI fusionierten.

Obwohl neuronale Netze 1944 von zwei Forschern der University of Chicago, Warren McCullough und Walter Pitts, vorgeschlagen wurden, war das erste funktionale „mehrschichtige“ künstliche neuronale Netz, das Cognitron, wurde 1975 von Kunihiko Fukushima entwickelt.

Neuronale Netze legen den Grundstein für den Einsatz von maschinellem Lernen und Deep Learning. Ihr Design unterstützt Eingabe- und Ausgabeschichten, und die verborgenen Schichten zwischen ihnen werden verwendet, um die Eingabedaten umzuwandeln und sie für die Ausgabeschicht nutzbar zu machen. Mit diesem neuen Design wurde die Gesichts- und Spracherkennung erheblich verbessert. Verborgene Schichten bilden auch die Grundlage für Deep Learning.

In 1979, Kunhiko Fukushima schlug die Entwicklung eines hierarchischen, mehrschichtigen künstlichen neuronalen Netzwerks vor, das er nannte Neokognitron. Dies war das erste Deep-Learning-Neuronale Netzwerk. Sein Entwurf unterstützte die Fähigkeit des Computers, das Erkennen visueller Muster und insbesondere die Erkennung handschriftlicher Zeichen zu lernen. Sein Design ermöglichte auch die manuelle Anpassung wichtiger Daten, sodass der Mensch das „Gewicht“ bestimmter Verbindungen erhöhen konnte.

Die 1980er Jahre und der zweite KI-Winter

Im Jahr 1982 machte John Hopfield eine weitere Entdeckung, der eine neue Form eines neuronalen Netzwerks entwickelte – das Hopfield-Netz – mit einem völlig anderen Ansatz. Das Hopfield-Netz sammelte und rief Erinnerungen ab, ähnlich wie es das menschliche Gehirn tat, als dies bei früheren Systemen der Fall war.

Der zweite KI-Winter begann jedoch ungefähr 1984 und dauerte bis 1990 und verlangsamte die Entwicklung der künstlichen Intelligenz sowie der generativen KI. Der Zorn und die Frustration über gebrochene Versprechen und Erwartungen waren so groß, dass der Begriff „künstliche Intelligenz“ den Status einer Pseudowissenschaft annahm und oft mit Verachtung gesprochen wurde. Es hatte sich eine breite Skepsis gegenüber KI entwickelt. Leider wurden für den Großteil der KI- und Deep-Learning-Forschung die Mittel gekürzt.

1986 stellten David Rumelhart und sein Team vor A new way des Trainings neuronaler Netze mithilfe der in den 1970er Jahren entwickelten Backpropagation-Technik.

In den späten 1980er Jahren wurde MOS (Metalloxid-Halbleiter), entwickelt 1959) wurden mit VLSI (Sehr große Integration) und stellte ein praktischeres und effizienteres künstliches neuronales Netzwerk bereit. Diese Kombination wurde a genannt komplementärer MOS (oder ein CMOS).

Deep Learning wurde im Jahr 1989 zur funktionalen Realität, als Yann LeCun und sein Team einen Backpropagation-Algorithmus mit neuronalen Netzen verwendeten, um handgeschriebene Postleitzahlen zu erkennen.

Tiefes Lernen nutzt Algorithmen, um die Daten zu verarbeiten und den menschlichen Denkprozess nachzuahmen. Es verwendet Schichten von Algorithmen, die darauf ausgelegt sind, Daten zu verarbeiten, Objekte visuell zu erkennen und menschliche Sprache zu verstehen. Die Daten durchlaufen jede Ebene, wobei die Ausgabe der vorherigen Ebene die für die nächste Ebene benötigte Eingabe darstellt. Beim Deep Learning sorgen die zusätzlichen Schichten, die verwendet werden, für „Abstraktionen“ auf höherer Ebene, was zu besseren Vorhersagen und besseren Klassifizierungen führt. Je mehr Schichten verwendet werden, desto größer ist das Potenzial für bessere Vorhersagen. 

Deep Learning hat sich zu einem äußerst nützlichen Trainingsprozess entwickelt, der die Bilderkennung, Spracherkennung und die Verarbeitung großer Datenmengen unterstützt.

Die 1990er Jahre und die KI-Forschung erholen sich

Da die Förderung künstlicher Intelligenz in den 1990er Jahren wieder begann, wurde auch maschinelles Lernen als Trainingsmechanismus gefördert. Die Branche des maschinellen Lernens hatte die Erforschung neuronaler Netze auch im zweiten KI-Winter fortgesetzt und begann in den 1990er Jahren zu florieren. Ein großer Teil des anhaltenden Erfolgs des maschinellen Lernens beruhte auf der Verwendung von Zeichen- und Spracherkennung in Kombination mit dem überwältigenden Wachstum des Internets und der Verwendung von Personalcomputern.

Das Konzept des „Boostings“ wurde 1990 in dem Papier geteilt Die Stärke schwacher Lernfähigkeit, von Robert Schapire. Er erklärte, dass aus einer Gruppe schwacher Lernender ein einziger starker Lernender entstehen kann. Algorithmen verbessern Reduzieren Sie Voreingenommenheit während des überwachten Lernprozesses und integrieren Sie Algorithmen für maschinelles Lernen, die in der Lage sind, mehrere schwache Lernende in wenige starke zu verwandeln. (Schwache Lernende treffen in etwas 50 % der Fälle richtige Vorhersagen.) 

Der Computerspielbranche gebührt große Anerkennung für ihren Beitrag zur Entwicklung der generativen KI. 3D-Grafikkarten, die Vorläufer der Grafikprozessoren (GPUs), wurden erstmals in den frühen 1990er Jahren eingeführt, um die Darstellung von Grafiken in Videospielen zu verbessern. 

1997 gründeten Jürgen Schmidhuber und Sepp Hochreiter die „langes Kurzzeitgedächtnis” (LSTM) zur Verwendung mit wiederkehrenden neuronalen Netzen. Derzeit wird bei den meisten Spracherkennungstrainings diese Technik verwendet. LSTM unterstützt Lernaufgaben, die eine Erinnerung an Ereignisse erfordern, die Tausende von Schritten zuvor stattgefunden haben und die bei Gesprächen oft wichtig sind.

Nvidia (verantwortlich für viele Fortschritte in der Spieletechnologie) entwickelte 1999 eine fortschrittliche GPU, deren Rechengeschwindigkeit um das Tausendfache gesteigert wurde. Ihre erste GPU hieß GeForce 256

Es war eine überraschende Erkenntnis, dass GPUs nicht nur für Videospiele verwendet werden können. Die neuen GPUs wurden auf künstliche neuronale Netze angewendet, mit erstaunlich positiven Ergebnissen. GPUs sind beim maschinellen Lernen sehr nützlich geworden, da sie im Vergleich zu einer Zentraleinheit etwa 200-mal so viele Prozessoren pro Chip verwenden. (Zentraleinheiten, oder CPUs sind jedoch flexibler und führen eine größere Auswahl an Berechnungen durch, während GPUs eher auf bestimmte Anwendungsfälle zugeschnitten sind.)

Die 2000s

Die Face Recognition Grand Challenge, a Förderung zur Verbesserung Gesichtserkennungstechnologie wurde von der US-Regierung finanziert und fand in den Jahren 2004 und 2006 statt. Sie führte zu neuen Gesichtserkennungstechniken und Gesichtserkennungsleistungen. Die neu entwickelten Algorithmen waren bis zu zehnmal genauer als die 2002 verwendeten Gesichtserkennungsalgorithmen. Einige der Algorithmen konnten sogar Unterschiede zwischen eineiigen Zwillingen erkennen.

Die 2010er Jahre und virtuelle Assistenten und Chatbots

Am 4. Oktober 2011, Siri, der erste digitale virtuelle Assistent, der als funktionsfähig galt, war als Dienst mit dem iPhone 4S erhältlich. Die Verwendung von Chatbots auch deutlich gestiegen. 

Im Jahr 2014 wurde das Konzept des Generative Adversarial Network (GAN) vorgestellt. GANs werden verwendet, um Bilder, Videos und Audio zu erstellen, die wie authentische Aufnahmen realer Situationen wirken.          

Ein generatives gegnerisches Netzwerk verwendet zwei neuronale Netze die gleichzeitig ein kontradiktorisches Training absolviert haben: Ein neuronales Netzwerk fungiert als Diskriminator und das andere als Generator. Der Diskriminator wurde darauf trainiert, zwischen generierten Daten und realen Daten zu unterscheiden. Der Generator erstellt synthetische Daten und versucht, reale Daten zu imitieren. Durch Übung wird der Generator immer besser darin, immer realistischere Aufnahmen zu erzeugen, um den Diskriminator auszutricksen. GANs können synthetische Daten erzeugen, die schwer oder gar nicht als künstlich zu erkennen sind.

Die 2020er und intelligentere Chatbots

Im November 2022 führte OpenAI ChatGPT ein, eine generative KI in Kombination mit große Sprachmodelle. ChatGPT und seine Variationen haben ein neues Niveau der künstlichen Intelligenz erreicht. Diese „intelligenteren Chatbots“ können Recherchen durchführen, einigermaßen gute Texte unterstützen und realistische Videos, Audiodateien und Bilder generieren.

Die Kombination von generativem KI-Training mit großen Sprachmodellen hat zu einer künstlichen Intelligenz geführt, die über die Fähigkeit verfügt, zu denken und zu argumentieren. Sie könnten auch die Fähigkeit haben, sich etwas vorzustellen. ChatGPT wurde Halluzinationen vorgeworfen, was als Gebrauch der Fantasie interpretiert werden könnte.

spot_img

Neueste Intelligenz

spot_img