Zephyrnet-Logo

AGI bleibt trotz LLM-Boom ein ferner Traum

Datum:

Merkmal Ein anderer Tag, eine andere Schlagzeile. Letzte Woche, Ein einjähriges Startup lockte 1.3 Milliarden US-Dollar von Investoren an darunter Microsoft und Nvidia, die Inflection AI mit 4 Milliarden US-Dollar bewerten.

Ausgefallene Bewertungen wie diese wetteifern mit Warnungen vor existenzielle Risiken, Massenabbau von Arbeitsplätzen und Morddrohungen durch Killerdrohnen im Medienrummel um KI. Aber unter den Schlagzeilen brodelt eine Debatte darüber, wer die intellektuelle Landschaft besitzen darf, wobei 60 Jahre wissenschaftliche Forschung wohl unter den Teppich gekehrt werden. Auf dem Spiel steht, wann es Menschen mit etwas namens Künstlicher Allgemeiner Intelligenz (AGI) gleichsetzen wird.

Da kommt Jason Abaluck, Wirtschaftsprofessor an der Yale School of Management, der im Mai nahm zu Twitter zu verkünden: „Wenn Sie nicht damit einverstanden sind, dass AGI bald kommt, müssen Sie erklären, warum Ihre Ansichten fundierter sind als die von erfahrenen KI-Forschern.“

Das Konzept der AGI, auch als starke KI bekannt, existiert seit den 1980er Jahren als Mittel zur Unterscheidung zwischen einem System, das Ergebnisse liefern kann, und einem System, das dies durch Denken erreichen kann.

Der jüngste Anstieg des Interesses an diesem Thema ist auf GPT-4 von OpenAI zurückzuführen, ein großes Sprachmodell, das auf der Verarbeitung riesiger Textmengen basiert und Assoziationen zwischen ihnen in Vektoren umwandelt, die in vielen Formen, einschließlich Gedichten und Texten, in brauchbare Ergebnisse umgewandelt werden können Computercode.

Nach einer Reihe beeindruckender Ergebnisse – darunter Bestehen einer juristischen Uniform Bar Exam – und kühne Behauptungen über seine wirtschaftlichen Vorteile – eine Steigerung der Produktivität im Vereinigten Königreich um 31 Milliarden Pfund (39.3 Milliarden US-Dollar), laut KPMG – Befürworter werden immer mutiger.

OpenAI-CEO Sam Altman letzten Monat vor einem Publikum in Indien erklärt: „Ich bin mit dem Gedanken aufgewachsen, dass Intelligenz etwas wirklich Besonderes und etwas Magisches sei. Und ich denke jetzt, dass es eine Art grundlegende Eigenschaft der Materie ist …“

Microsoft, das im Januar 10 Milliarden US-Dollar in OpenAI investiert hat, hat eigene Experimente mit GPT-4 durchgeführt. Ein Team unter der Leitung von Sebastien Bubeck, leitender Forschungsleiter in den Grundlagen des maschinellen Lernens des Softwareriesen, geschlossen [PDF] Seine „Fähigkeiten zeigen deutlich, dass GPT-4 komplexe Konzepte manipulieren kann, was ein zentraler Aspekt des Denkens ist.“

Aber Wissenschaftler denken schon viel länger über das Nachdenken nach als Altman und Bubeck. Im Jahr 1960 gründeten die amerikanischen Psychologen George Miller und Jerome Bruner das Harvard Center for Cognitive Studies, das einen ebenso guten Ausgangspunkt für die Geburt der Disziplin darstellte, obwohl bestimmte Strömungen bis in die 1940er Jahre zurückreichen. Diejenigen, die dieses wissenschaftliche Erbe geerbt haben, stehen den hochtrabenden Behauptungen von Ökonomen und Informatikern über große Sprachmodelle und generative KI kritisch gegenüber.

Dr. Andrea Martin, Max-Planck-Forschungsgruppenleiterin für Sprache und Berechnung in neuronalen Systemen, sagte, AGI sei ein „Ablenkungsmanöver“.

„Mein Problem ist der Begriff der allgemeinen Intelligenz an sich. Es ist hauptsächlich prädiktiv: Ein Test sagt weitgehend voraus, wie Sie bei einem anderen Test abschneiden. Diese Verhaltensweisen oder Maßnahmen könnten mit einigen essentialistischen Merkmalen korrelieren, [aber] wir haben nur sehr wenige Beweise dafür“, sagte sie Das Register.

Martin lehnt es auch ab, den Turing-Test – vorgeschlagen von Alan Turing, der eine Pionierrolle in der Informatik, KI und Kognitionswissenschaft spielte – als Maßstab für KI zu verwenden, um menschenähnliches Denken oder Intelligenz zu demonstrieren.

Der Test zielt darauf ab, zu beurteilen, ob eine Maschine Menschen durch eine Frage-und-Antwort-Sitzung in natürlicher Sprache vortäuschen kann, dass es sich um einen Menschen handelt. Wenn ein menschlicher Prüfer die unsichtbare Maschine über eine Textschnittstelle nicht zuverlässig von einem unsichtbaren Menschen unterscheiden kann, hat die Maschine bestanden.

Sowohl ChatGPT als auch Googles KI haben den Test bestanden, aber dies als Beweis für denkende Computer zu verwenden, sei „nur eine schreckliche Fehlinterpretation von Turing“, sagte Martin.

„Seine Absichten dort waren immer eher ein Ingenieur- oder Informatikkonzept als ein Konzept der Kognitionswissenschaft oder Psychologie.“

Der emeritierte Professor für Psychologie und Neurowissenschaften der New York University, Gary Marcus, hat kritisierte auch den Test als Mittel zur Beurteilung der maschinellen Intelligenz oder Kognition.

Ein weiteres Problem des LLM-Ansatzes besteht darin, dass er nur Aspekte der Sprache erfasst, die statistisch bestimmt sind, und nicht versucht, die Struktur der Sprache oder ihre Fähigkeit, Wissen zu erfassen, zu verstehen. „Das ist im Wesentlichen ein technisches Ziel. Und ich möchte nicht sagen, dass das nicht in die Wissenschaft gehört, aber ich denke einfach, dass es definitiv ein anderes Ziel ist“, sagte Martin.

Die Behauptung, dass LLMs intelligent sind oder vernünftig denken können, stößt auch auf die Herausforderung der Transparenz der bei der Entwicklung eingesetzten Methoden. Trotz seines Namens hat OpenAI nicht offen dargelegt, wie es Trainingsdaten oder menschliches Feedback zur Entwicklung einiger seiner Modelle verwendet hat.

„Die Modelle erhalten viel Feedback darüber, welche Parametergewichte für erfreuliche Antworten gelten, die als gut bewertet werden. „In den 90er und XNUMXer Jahren wäre das auf Konferenzen zur Kognitionswissenschaft nicht erlaubt gewesen“, sagte Martin.

Martin argumentierte, dass menschenähnliche Leistungen in LLMs nicht ausreichen, um nachzuweisen, dass sie wie Menschen denken, und sagte: „Die Vorstellung, dass Korrelation ausreicht, dass sie eine Art sinnvolle Kausalstruktur ergibt, ist nicht wahr.“

Dennoch können große Sprachmodelle wertvoll sein, auch wenn ihr Wert von ihren Befürwortern überbewertet wird, sagte sie.

„Der Nachteil besteht darin, dass sie viele wichtige Erkenntnisse beschönigen können … In der Philosophie der Kognitionswissenschaft können wir das nicht aufgeben und wir kommen nicht davon los.“

Allerdings sind nicht alle in der Kognitionswissenschaft dieser Meinung. Tali Sharot, Professorin für kognitive Neurowissenschaften am University College London, vertritt eine andere Perspektive. „Der Umgang mit Sprache ist natürlich sehr beeindruckend: Argumente zu finden und Fähigkeiten wie Programmieren“, sagte sie.

„Es gibt eine Art Missverständnis zwischen Intelligenz und Menschsein. Intelligenz ist die Fähigkeit, richtig zu lernen, sich Wissen und Fähigkeiten anzueignen.

„Diese Sprachmodelle sind also durchaus in der Lage, zu lernen, sich Wissen anzueignen und Fähigkeiten zu erwerben. Wenn zum Beispiel das Programmieren eine Fähigkeit ist, dann kann man damit Fähigkeiten erwerben – das heißt aber nicht, dass es in irgendeiner Weise menschlich ist.“

Ein wesentlicher Unterschied besteht darin, dass KIs keine Entscheidungsfreiheit haben und LLMs nicht auf die gleiche Weise über die Welt denken wie Menschen. „Sie denken zurück – vielleicht machen wir dasselbe, aber ich glaube nicht, dass das stimmt. So wie ich es sehe, denken sie überhaupt nicht“, sagte Sharot.

Totaler Rückruf

Caswell Barry, Professor an der Abteilung für Zell- und Entwicklungsbiologie des UCL, arbeitet an der Entdeckung der neuronalen Grundlagen des Gedächtnisses. Er sagt, OpenAI habe viel auf einen KI-Ansatz gesetzt, von dem viele in diesem Bereich nicht glaubten, dass er fruchtbar sein würde.

Während Worteinbettungen und Sprachmodelle auf diesem Gebiet gut verstanden seien, ging OpenAI davon aus, dass etwas Interessantes passieren könnte, wenn man mehr Daten beschafft und „im Wesentlichen alles einbezieht, was die Menschheit jemals geschrieben hat, was man im Internet finden kann“.

„Im Nachhinein sagt jeder, dass es irgendwie Sinn macht, wusste aber eigentlich, dass es eine große Wette war und viele der großen Player in der Welt des maschinellen Lernens, wie DeepMind, völlig umgangen hat. Sie verfolgten diese Forschungsrichtung nicht; „Die Ansicht war, dass wir die Inspiration aus dem Gehirn betrachten sollten, und so würden wir zu AGI gelangen“, sagte Barry, dessen Arbeit teilweise von der Gesundheitsforschungsorganisation Wellcome, DeepMind und Nvidia finanziert wird.

Während OpenAI die Industrie und die Wissenschaft mit dem Erfolg seines Ansatzes überrascht haben könnte, könnte es früher oder später aus dem Ruder laufen, ohne notwendigerweise näher an AGI heranzukommen, argumentierte er.

„OpenAI hat buchstäblich einen großen Teil der leicht zugänglichen digitalen Texte im Internet aufgesaugt, man kann nicht einfach zehnmal mehr bekommen, weil man sie irgendwoher bekommen muss.“ Es gibt Möglichkeiten, die Verwendung zu verfeinern und intelligenter zu gestalten, aber grundsätzlich fehlen ihm immer noch einige Fähigkeiten. Es gibt keine stichhaltigen Hinweise darauf, dass es abstrakte Konzepte generieren und manipulieren kann.“

Wenn das Ziel inzwischen darin bestehe, AGI zu erreichen, sei dieses Konzept immer noch schlecht verstanden und schwer zu fassen, mit einer bewegten Geschichte, die von Eugenik und kulturellen Vorurteilen geprägt sei, sagte er.

In ihrer Krepppapier [PDF], nachdem Microsoft behauptet hatte, es habe eine „frühe (aber noch unvollständige) Version eines künstlichen allgemeinen Intelligenzsystems (AGI)“ erstellt, spricht es mehr über die Definition von AGI.

„Wir verwenden AGI, um uns auf Systeme zu beziehen, die umfassende Intelligenzfähigkeiten aufweisen, einschließlich Argumentation, Planung und die Fähigkeit, aus Erfahrungen zu lernen, und mit diesen Fähigkeiten auf oder über dem menschlichen Niveau“, heißt es in dem Papier.

Abduktives Denken

Kognitions- und Neurowissenschaftsexperten sind nicht die einzigen, die da anderer Meinung sind. Grady Booch, ein Softwareentwickler, der für die Entwicklung der Unified Modeling Language bekannt ist, hat unterstützt Zweifler, indem sie auf Twitter erklären, dass AGI nicht zu unseren Lebzeiten oder bald danach stattfinden wird, weil es an einer „geeigneten Architektur für die Semantik der Kausalität, des abduktiven Denkens, des gesunden Menschenverstandes, der Theorie des Geistes und des Selbst oder des Subjektiven“ mangelt Erfahrung."

Die boomende Industrie rund um LLMs hat derzeit möglicherweise größere Fische zu braten. OpenAI wurde von einem getroffen Sammelklage zum Scrapen urheberrechtlich geschützter Daten, während es Herausforderungen an die Ethik der Trainingsdaten gibt, mit Eine Studie zeigt Sie hegen zahlreiche rassische und gesellschaftliche Vorurteile.

Wenn LLMs gültige Antworten auf Fragen und Code liefern können, der funktioniert, dann vielleicht, um die kühnen Behauptungen ihrer Entwickler zu rechtfertigen – einfach als technische Übung.

Doch für Dr. Martin ist der Ansatz unzureichend und lässt die Möglichkeit außer Acht, von anderen Bereichen zu lernen.

„Das hängt davon ab, ob man sich für Wissenschaft interessiert oder nicht. In der Wissenschaft geht es darum, Erklärungen, Ontologien und Beschreibungen von Phänomenen in der Welt zu finden, die dann einen mechanistischen oder kausalen Strukturaspekt haben. Im Ingenieurwesen geht es grundsätzlich nicht darum. Aber um [den Physiker] Max Planck zu zitieren: Einsicht muss vor der Anwendung kommen. Zu verstehen, wie etwas an und für sich funktioniert, kann uns zu besseren Anwendungen führen.“

In der Eile, Anwendungen für vielgepriesene LLM-Technologien zu finden, ist es vielleicht am besten, Jahrzehnte der Kognitionswissenschaft nicht außer Acht zu lassen. ®

spot_img

Neueste Intelligenz

spot_img