Zephyrnet-Logo

Zusammenfassung von Versprechen und Fallstricken – Teil vier » CCC-Blog

Datum:

CCC unterstützte drei wissenschaftliche Sitzungen auf der diesjährigen AAAS-Jahreskonferenz. Diese Woche werden wir die Höhepunkte der Sitzung zusammenfassen: „Generative KI in der Wissenschaft: Versprechen und Fallstricke.„Dieses Panel, moderiert von Dr. Matthew Turk, Präsident des Toyota Technological Institute in Chicago), vorgestellt Dr. Rebecca Willett, Professor für Statistik und Informatik an der University of Chicago, Dr. Markus Bühler, Professor für Ingenieurwissenschaften am Massachusetts Institute of Technology, und Duncan Watson-Parris, Assistenzprofessor am Scripps Institution of Oceanography und am Halıcıoğlu Data Science Institute an der UC San Diego. Im vierten Teil fassen wir den Frage-und-Antwort-Teil des Panels zusammen. 

Im Anschluss an die Präsentationen der Diskussionsteilnehmer fand eine Frage-und-Antwort-Runde statt, und Dr. Matthew Turk eröffnete die Diskussion. „‚Promises and Pitfalls‘ steht im Titel dieses Panels. Wir haben viele der Versprechen besprochen, aber viele der Fallstricke nicht angesprochen. Was macht Ihnen Sorgen über die Zukunft der generativen KI?“

„Die Zuverlässigkeit und Vertrauenswürdigkeit dieser Modelle ist ein großes Anliegen“, begann Dr. Rebecca Wilett. „Diese Modelle können Dinge vorhersagen, die plausibel sind, denen jedoch wichtige, hervorstechende Elemente fehlen; Kann ich als Mensch erkennen, dass da etwas fehlt?“

Dr. Markus Buehler fügte hinzu, dass die tatsächliche Vorhersage eines Modells eine Sekunde dauern kann, der experimentelle Prozess der Validierung jedoch Monate, ein Jahr oder länger dauern kann. Wie sollen wir also in der Zwischenzeit vorgehen, wenn wir die Ergebnisse nicht überprüft haben? „Wir müssen auch die nächste Generation generativer KI-Entwickler ausbilden, damit sie Modelle entwerfen, die vertrauenswürdig und überprüfbar sind, und dass wir bei der Konstruktion dieser Modelle physikbasierte Erkenntnisse nutzen können.“

Dr. Duncan Watson-Parris baute auf den beiden vorherigen Punkten auf und sagte: „Da diese Modelle darauf ausgelegt sind, plausible Ergebnisse zu generieren, können wir uns die Ergebnisse nicht nur ansehen, um ihre Genauigkeit zu überprüfen.“ Generative KI-Forscher müssen ein tiefes Verständnis dafür haben, wie diese Modelle funktionieren, um ihre Ergebnisse zu überprüfen, weshalb die richtige Ausbildung der nächsten Generation so wichtig ist.“

Zuhörer: „In der Materialwissenschaft wissen wir, in welche Richtung wir bei der Untersuchung einiger Materialien gehen sollen, aber bei anderen, wie z. B. Supraleitern bei Raumtemperatur, wissen wir nicht, wie wir vorankommen sollen. Wie wird Ihrer Meinung nach der weitere Weg bei der Erforschung dieser unbekannten Materialien aussehen? Und wie soll diese Art der Forschung aus regulatorischer Sicht ermöglicht werden?“

„Nun, ich bin kein Experte in der Supraleiterforschung“, sagte Dr. Buehler, „deshalb werde ich nicht direkt darauf eingehen, aber ich kann allgemein darüber sprechen, wie wir Fortschritte in der Materialwissenschaft erzielen, insbesondere in meinem Bereich Protein.“ und Biomaterialentwicklung. Die Art und Weise, wie wir Fortschritte erzielen, besteht darin, die Grenzen zu überschreiten. Wir führen neue Experimente durch, testen ausgefallene Ideen und Theorien und sehen, welche funktionieren und warum. Was die Art und Weise betrifft, wie wir diese Forschung ermöglichen sollen, brauchen wir mehr Open-Source-Modelle mit kollektivem Zugriff. Ich möchte die Politik ermutigen, diese Technologien nicht zu stark zu regulieren, damit Forscher und die Öffentlichkeit Zugang zu solchen Modellen haben. Ich halte es nicht für eine gute Idee, Menschen daran zu hindern, diese Modelle zu nutzen, insbesondere wenn wir Ideen und Entwicklungen per Crowdsourcing sammeln und Wissen aus verschiedenen Bereichen menschlicher Tätigkeit einbringen können. Als zum Beispiel die Druckerpresse erfunden wurde, versuchten die Behörden, die Verfügbarkeit dieser Technologie einzuschränken, damit nur wenige Bücher in großen Mengen gelesen werden konnten, doch dieser Versuch scheiterte kläglich. Der beste Weg, die Öffentlichkeit zu schützen, besteht darin, den Zugang zu diesen Modellen so zu erleichtern, dass wir sie zum größtmöglichen Nutzen für die Gesellschaft umfassend entwickeln, erforschen und bewerten können.“

Zuschauer: „Die meisten generativen KI-Modelle sind heutzutage Regressionsmodelle, die sich auf die Simulation oder Emulation verschiedener Szenarien konzentrieren. Allerdings werden Entdeckungen in der Wissenschaft durch die Hypothesen und Vorhersagen vorangetrieben, die wir uns ausdenken. Wie erstellen wir also Modelle, die darauf abzielen, neue Vorhersagen zu treffen, anstelle der aktuellen Modelle, die hauptsächlich für Experimente verwendet werden?“

Dr. Buehler antwortete zuerst: „Sie haben Recht, die meisten traditionellen Modelle des maschinellen Lernens basieren oft auf Regression, aber die Modelle, über die wir heute gesprochen haben, funktionieren anders.“ Wenn Sie Multiagentensysteme mit vielen Funktionen zusammenstellen, beginnen sie tatsächlich, neue Szenarien zu erkunden und auf der Grundlage der von ihnen durchgeführten Experimente Überlegungen anzustellen und Vorhersagen zu treffen. Sie werden menschlicher. Als Forscher würden Sie nicht ein Experiment durchführen und dann einfach fertig sein – Sie würden ein Experiment durchführen und dann damit beginnen, sich die Daten anzusehen und sie zu validieren und auf der Grundlage dieser Daten neue Vorhersagen zu treffen, um die Punkte zu verbinden und daraus zu extrapolieren Hypothesen aufstellen und sich vorstellen, wie sich ein neues Szenario entwickeln würde. Sie würden experimentieren, neue Daten sammeln, eine Theorie entwickeln und vielleicht einen integrierten Rahmen zu einem bestimmten Thema vorschlagen. Dann würden Sie Ihre Ideen gegen die Kritik Ihrer Kollegen verteidigen und Ihre Hypothese möglicherweise überarbeiten, wenn neue Informationen verwendet werden. So funktionieren neue gegnerische Systeme mit mehreren Agenten, aber natürlich ergänzen sie menschliche Fähigkeiten durch eine weitaus größere Fähigkeit, über riesige Datenmengen und Wissensdarstellungen nachzudenken. Diese Modelle können bereits neue Hypothesen generieren, die weit über das bisher Erforschte hinausgehen und den wissenschaftlichen Entdeckungs- und Innovationsprozess ergänzen.“

„Ich würde das ergänzen“, warf Dr. Willett ein, „um den Bereich der Vollständigkeitsentdeckung und symbolischen Regression als einen weiteren Bereich zu ergänzen, der viel stärker auf die Generierung von Hypothesen ausgerichtet ist.“ In diesem Bereich wird noch viel gearbeitet.“

Zuschauer: „Wie können wir den Zugang zu dieser Art von Modellen verbessern und Hürden überwinden, wie zum Beispiel, dass die meisten Modelle für Englischsprachige erstellt werden?“

Dr. Rebecca Willett antwortete: „Viele Menschen haben Zugang zu diesen Modellen, aber ihre Entwicklung und Schulung kostet viele Millionen Dollar.“ Wenn nur eine kleine Gruppe von Organisationen in der Lage ist, diese Modelle aufzustellen, dann trifft nur eine sehr kleine Gruppe von Menschen die Entscheidungen und setzt Prioritäten in der wissenschaftlichen Gemeinschaft. Und oft sind die Prioritäten dieser Organisationen und Einzelpersonen gewinnorientiert. Dennoch denke ich, dass sich die Landschaft allmählich verändert. Organisationen wie die NSF versuchen, eine Infrastruktur aufzubauen, auf die die breitere wissenschaftliche Gemeinschaft zugreifen kann. Diese Bemühungen ähneln der frühen Entwicklung von Supercomputern. In der Anfangszeit mussten Forscher langwierige Vorschläge einreichen, um Zugang zu einem Supercomputer zu erhalten. Ich denke, wir werden ähnliche neue Paradigmen in der KI und der generativen KI sehen.“

„Ich stimme zu“, sagte Dr. Watson-Parris. „Außerdem glaube ich nicht, dass wir die Grundlagenforschung, vielleicht die Anwendungsbereiche, aber nicht die Forschung selbst regulieren sollten.“

Vielen Dank fürs Lesen und bleiben Sie gespannt auf die Rückblicke unserer beiden anderen Panels auf der AAAS 2024.

spot_img

Neueste Intelligenz

spot_img