Zephyrnet-Logo

Wie ein Kind kann diese vom Gehirn inspirierte KI ihre Überlegungen erklären

Datum:

Kinder sind Naturwissenschaftler. Sie beobachten die Welt, stellen Hypothesen auf und testen sie. Schließlich lernen sie, ihre (manchmal äußerst urkomischen) Argumente zu erklären.

KI, nicht so sehr. Es besteht kein Zweifel daran, dass Deep Learning – eine Art maschinelles Lernen, die lose auf dem Gehirn basiert – die Technologie dramatisch verändert. Von der Vorhersage extremer Wetterereignisse über die Entwicklung neuer Medikamente bis hin zur Diagnose tödlicher Krebsarten wird KI zunehmend in die Welt integriert Grenzen der Wissenschaft.

Aber Deep Learning hat einen massiven Nachteil: Die Algorithmen können ihre Antworten nicht begründen. Diese oft als „Black-Box“-Problem bezeichnete Undurchsichtigkeit verhindert ihren Einsatz in Hochrisikosituationen, beispielsweise in der Medizin. Patienten wünschen sich eine Erklärung, wenn eine lebensverändernde Krankheit diagnostiziert wird. Derzeit können Deep-Learning-basierte Algorithmen – selbst wenn sie eine hohe Diagnosegenauigkeit aufweisen – diese Informationen nicht liefern.

Um die Blackbox zu öffnen, nutzte ein Team des University of Texas Southwestern Medical Center den menschlichen Geist als Inspiration. In eine Studie in NaturinformatikSie kombinierten Prinzipien aus der Erforschung von Gehirnnetzwerken mit einem traditionelleren KI-Ansatz, der auf erklärbaren Bausteinen basiert.

Die daraus resultierende KI verhält sich ein bisschen wie ein Kind. Es verdichtet verschiedene Arten von Informationen zu „Hubs“. Jeder Hub wird dann in Codierungsrichtlinien übersetzt, die von Menschen gelesen werden können – CliffsNotes für Programmierer, die die Schlussfolgerungen des Algorithmus zu Mustern, die er in den Daten gefunden hat, in einfachem Englisch erläutern. Es kann auch vollständig ausführbaren Programmcode zum Ausprobieren generieren.

Die als „Deep Destilling“ bezeichnete KI arbeitet wie ein Wissenschaftler, wenn sie mit einer Vielzahl von Aufgaben konfrontiert wird, beispielsweise mit schwierigen mathematischen Problemen und der Bilderkennung. Durch das Durchsuchen der Daten destilliert die KI diese in Schritt-für-Schritt-Algorithmen, die von Menschen entwickelte Algorithmen übertreffen können.

„Tiefendestillation ist in der Lage, verallgemeinerbare Prinzipien zu entdecken, die das menschliche Fachwissen ergänzen.“ schrieb das Team in seiner Arbeit.

Papier dünn

In der realen Welt macht die KI manchmal Fehler. Nehmen Sie Robotaxis. Letztes Jahr blieben einige wiederholt in einem Viertel von San Francisco stecken – ein Ärgernis für die Einheimischen, aber sie mussten trotzdem lachen. Noch schlimmer ist, dass selbstfahrende Fahrzeuge den Verkehr und Krankenwagen blockierten und in einem Fall einem Fußgänger schrecklichen Schaden zufügten.

Auch im Gesundheitswesen und in der wissenschaftlichen Forschung können die Gefahren hoch sein.

Wenn es um diese Hochrisikobereiche geht, erfordern Algorithmen „eine geringe Fehlertoleranz“, sagt Dr. Joseph Bakarji von der American University of Beirut, der nicht an der Studie beteiligt war. schrieb in einem Begleitstück über das Werk.

Das Hindernis für die meisten Deep-Learning-Algorithmen ist ihre Unerklärlichkeit. Sie sind als mehrschichtige Netzwerke strukturiert. Indem das Netzwerk Unmengen an Rohinformationen aufnimmt und unzählige Feedbackrunden erhält, passt es seine Verbindungen an, um letztendlich genaue Antworten zu liefern.

Dieser Prozess ist das Herzstück des Deep Learning. Es ist jedoch schwierig, wenn nicht genügend Daten vorhanden sind oder die Aufgabe zu komplex ist.

Zurück im Jahr 2021, das Team eine KI entwickelt das war ein anderer Ansatz. Das als „symbolisches“ Denken bezeichnete neuronale Netzwerk kodiert explizite Regeln und Erfahrungen durch Beobachtung der Daten.

Im Vergleich zu Deep Learning sind symbolische Modelle für Menschen einfacher zu interpretieren. Stellen Sie sich die KI als einen Satz Legosteine ​​vor, von denen jeder ein Objekt oder Konzept darstellt. Sie können auf kreative Weise zusammenpassen, aber die Verbindungen folgen einem klaren Regelwerk.

Die KI an sich ist leistungsstark, aber anfällig. Es ist stark auf Vorkenntnisse angewiesen, um Bausteine ​​zu finden. Wenn es ohne vorherige Erfahrung mit einer neuen Situation konfrontiert wird, kann es nicht über den Tellerrand hinaus denken – und es bricht zusammen.

Hier kommt die Neurowissenschaft ins Spiel. Das Team ließ sich von Konnektomen inspirieren, die Modelle dafür sind, wie verschiedene Gehirnregionen zusammenarbeiten. Durch die Verknüpfung dieser Konnektivität mit symbolischem Denken haben sie eine KI geschaffen, die über solide, erklärbare Grundlagen verfügt, sich aber auch flexibel an neue Probleme anpassen kann.

In mehreren Tests schlug das „neurokognitive“ Modell andere tiefe neuronale Netze bei Aufgaben, die logisches Denken erforderten.

Aber kann man Daten verstehen und Algorithmen entwickeln, um es zu erklären?

Die menschliche Note

Einer der schwierigsten Teile wissenschaftlicher Entdeckungen besteht darin, verrauschte Daten zu beobachten und daraus eine Schlussfolgerung zu ziehen. Dieser Prozess führt zu neuen Materialien und Medikamenten, einem tieferen Verständnis der Biologie und Erkenntnissen über unsere physische Welt. Oft handelt es sich um einen sich wiederholenden Prozess, der Jahre dauert.

KI kann möglicherweise die Dinge beschleunigen und möglicherweise Muster finden, die dem menschlichen Verstand entgangen sind. Beispielsweise hat sich Deep Learning bei der Vorhersage von Proteinstrukturen als besonders nützlich erwiesen, die Begründung für die Vorhersage dieser Strukturen ist jedoch schwer zu verstehen.

„Können wir Lernalgorithmen entwerfen, die Beobachtungen in einfache, umfassende Regeln umwandeln, wie es Menschen normalerweise tun?“ schrieb Bakarji.

Die neue Studie nutzte das bestehende neurokognitive Modell des Teams und verlieh ihm eine zusätzliche Begabung: die Fähigkeit, Code zu schreiben.

Die KI nennt sich „Deep Destilling“ und gruppiert ähnliche Konzepte, wobei jedes künstliche Neuron ein bestimmtes Konzept und seine Verbindung zu anderen kodiert. Beispielsweise könnte ein Neuron das Konzept einer Katze lernen und erkennen, dass sie sich von einem Hund unterscheidet. Ein anderer Typ behandelt die Variabilität, wenn er mit einem neuen Bild herausgefordert wird – beispielsweise einem Tiger –, um festzustellen, ob er eher einer Katze oder einem Hund ähnelt.

Diese künstlichen Neuronen werden dann in einer Hierarchie gestapelt. Mit jeder Schicht differenziert das System zunehmend Konzepte und findet schließlich eine Lösung.

Anstatt dass die KI so viele Daten wie möglich verarbeitet, erfolgt das Training Schritt für Schritt – fast so, als würde man es einem Kleinkind beibringen. Dies ermöglicht es, die Argumentation der KI zu bewerten, während sie nach und nach neue Probleme löst.

Im Vergleich zum herkömmlichen Training neuronaler Netze sei der selbsterklärende Aspekt in die KI integriert, erklärte Bakarji.

In einem Test forderte das Team die KI mit einem klassischen Videospiel heraus – Conway's Game of Life. Bei dem in den 1970er Jahren erstmals entwickelten Spiel geht es darum, eine digitale Zelle anhand bestimmter Regeln in verschiedene Muster wachsen zu lassen (probieren Sie es selbst aus). hier). Die auf simulierten Spieldaten trainierte KI war in der Lage, potenzielle Ergebnisse vorherzusagen und ihre Überlegungen in für Menschen lesbare Richtlinien oder Computerprogrammcode umzuwandeln.

Die KI funktionierte auch bei einer Vielzahl anderer Aufgaben gut, beispielsweise beim Erkennen von Linien in Bildern und beim Lösen schwieriger mathematischer Probleme. In einigen Fällen wurde kreativer Computercode generiert, der etablierte Methoden übertraf – und erklären konnte, warum.

Die Tiefendestillation könnte einen Aufschwung für die physikalischen und biologischen Wissenschaften bedeuten, wo aus einfachen Teilen äußerst komplexe Systeme entstehen. Eine mögliche Anwendung der Methode ist die Mitarbeit bei der Entschlüsselung von DNA-Funktionen. Ein Großteil unserer DNA besteht aus „dunkler Materie“, da wir nicht wissen, welche Rolle sie – wenn überhaupt – spielt. Eine erklärbare KI könnte möglicherweise genetische Sequenzen entschlüsseln und Genetikern dabei helfen, seltene Mutationen zu identifizieren, die verheerende Erbkrankheiten verursachen.

Außerhalb der Forschung freut sich das Team über die Aussicht auf eine stärkere Zusammenarbeit zwischen KI und Mensch.

"Neurosymbolische Ansätze könnte möglicherweise menschenähnlichere maschinelle Lernfähigkeiten ermöglichen“, schrieb das Team.

Bakarji stimmt zu. Die neue Studie geht „über den technischen Fortschritt hinaus und geht auf ethische und gesellschaftliche Herausforderungen ein, denen wir heute gegenüberstehen“. Erklärbarkeit könnte als Leitplanke dienen und KI-Systemen dabei helfen, sich beim Training mit menschlichen Werten zu synchronisieren. Bei risikoreichen Anwendungen wie der medizinischen Versorgung könnte es Vertrauen aufbauen.

Derzeit funktioniert der Algorithmus am besten, wenn er Probleme löst, die in Konzepte zerlegt werden können. Kontinuierliche Daten wie Videostreams können nicht verarbeitet werden.

„Das ist der nächste Schritt in der Tiefendestillation“, schrieb Bakarji. Es „würde neue Möglichkeiten im wissenschaftlichen Rechnen und in der theoretischen Forschung eröffnen.“

Bild-Kredit: 7AV 7AV / Unsplash 

spot_img

Neueste Intelligenz

spot_img