KI ist unheimlich gut darin geworden, menschliche Konversationsfähigkeiten nachzuahmen. Neue Forschungsergebnisse deuten darauf hin, dass ihre Mimikry-Fähigkeiten noch viel weiter reichen und es ermöglichen, die Persönlichkeit bestimmter Menschen zu reproduzieren.
Menschen sind kompliziert. Unsere Überzeugungen, Charaktereigenschaften und die Art und Weise, wie wir Entscheidungen treffen, sind Produkte sowohl unserer Natur als auch unserer Erziehung, die sich über Jahrzehnte entwickelt haben und durch unsere unterschiedlichen Lebenserfahrungen geprägt sind.
Aber es scheint, dass wir vielleicht doch nicht so einzigartig sind, wie wir denken. Eine Studie Unter der Leitung von Forschern der Stanford University hat man herausgefunden, dass ein KI-Modell lediglich ein zweistündiges Interview braucht, um die Antworten von Menschen auf eine Reihe von Fragebögen, Persönlichkeitstests und Gedankenexperimenten mit einer Genauigkeit von 85 Prozent vorherzusagen.
Obwohl die Idee, die Persönlichkeit von Menschen zu klonen, unheimlich erscheinen mag, sagen die Forscher, dass der Ansatz zu einer leistungsstarkes Werkzeug für Sozialwissenschaftler und Politiker Ziel ist es, Reaktionen auf unterschiedliche politische Entscheidungen zu simulieren.
„Wir haben jetzt die Möglichkeit, Modelle von Individuen zu erstellen, die wirklich hochpräzise sind“, sagt Joon Sung Park von der Stanford University, der die Forschung leitete. sagte New Scientist. "Wir können einen Agenten für eine Person erstellen, der viele ihrer Komplexitäten und ihre Eigenartigkeit erfasst.“
KI wurde nicht nur verwendet, um virtuelle Repliken der Studienteilnehmer zu erstellen, sondern auch, um die notwendigen Trainingsdaten zu sammeln. Die Forscher erhielten eine sprachgesteuerte Version von OpenAIs GPT-4o, um Menschen anhand eines Skripts des American Voices Project zu interviewen – einer sozialwissenschaftlichen Initiative, die darauf abzielt, Antworten amerikanischer Familien zu einer breiten Palette von Themen zu sammeln.
Die Forscher stellten nicht nur vorgefertigte Fragen, sondern forderten das Modell auch dazu auf, basierend auf den Antworten der Leute Folgefragen zu stellen. Das Modell befragte zwei Stunden lang 1,052 Menschen in den USA und erstellte für jede Person ein Transkript.
Mithilfe dieser Daten erstellten die Forscher GPT-4o-gestützte KI-Agenten, die Fragen auf dieselbe Weise beantworten, wie es ein menschlicher Teilnehmer tun würde. Jedes Mal, wenn ein Agent eine Frage beantwortete, wurde neben der Anfrage das gesamte Interviewtranskript eingefügt und das Modell angewiesen, den Teilnehmer zu imitieren.
Um den Ansatz zu evaluieren, ließen die Forscher die Agenten und menschlichen Teilnehmer in einer Reihe von Tests gegeneinander antreten. Dazu gehörte der General Social Survey, der soziale Einstellungen zu verschiedenen Themen misst; ein Test, der beurteilt, wie Menschen bei der Big Five Persönlichkeitsmerkmale; mehrere Spiele, die die Entscheidungsfindung in Wirtschaftsfragen testen; und eine Handvoll sozialwissenschaftlicher Experimente.
Menschen reagieren bei solchen Tests zu unterschiedlichen Zeitpunkten oft ganz unterschiedlich, was einen Vergleich mit den KI-Modellen erschweren würde. Um dies zu kontrollieren, baten die Forscher die Menschen, den Test zweimal im Abstand von zwei Wochen durchzuführen, damit sie beurteilen konnten, wie konsistent die Teilnehmer waren.
Als das Team die Antworten der KI-Modelle mit denen der ersten Runde menschlicher Antworten verglich, waren die Agenten zu etwa 69 Prozent genau. Berücksichtigte man jedoch, wie die Antworten der Menschen zwischen den Sitzungen variierten, stellten die Forscher fest, dass die Modelle eine Genauigkeit von 85 Prozent erreichten.
Hassaan Raza, CEO von Tavus, einem Unternehmen, das „digitale Zwillinge“ von Kunden erstellt, sagte MIT Technology Review Die größte Überraschung der Studie war, wie wenig Daten man benötigt, um getreue Kopien echter Menschen zu erstellen. Normalerweise benötigt Tavus eine Unmenge an E-Mails und anderen Informationen, um seine KI-Klone zu erstellen.
„Das wirklich Coole hier war, dass sie gezeigt haben, dass man vielleicht gar nicht so viele Informationen braucht“, sagte er. „Wie wäre es, wenn Sie heute 30 Minuten und morgen 30 Minuten lang mit einem KI-Interviewer sprechen würden? Und dann verwenden wir das, um diesen digitalen Zwilling von Ihnen zu konstruieren.“
Die Schaffung realistischer KI-Repliken von Menschen könnte sich als mächtiges Instrument für die Politikgestaltung erweisen, sagte Richard Whittle von der University of Salford, Großbritannien. New Scientist, da KI-Fokusgruppen viel kostengünstiger und schneller sein könnten als solche, die aus Menschen bestehen.
Es ist jedoch nicht schwer zu erkennen, wie dieselbe Technologie für schändliche Zwecke eingesetzt werden könnte. Deepfake-Videos wurden bereits verwendet, um sich in einem aufwendigen Betrug im Wert von mehreren Millionen DollarDie Fähigkeit, die gesamte Persönlichkeit einer Zielperson nachzuahmen, würde solche Bemühungen wahrscheinlich beschleunigen.
Wie dem auch sei, die Forschung lässt darauf schließen, dass es bald Maschinen geben wird, die Menschen in den unterschiedlichsten Situationen realistisch imitieren können.
Bild-Kredit: Richmond Fajardo on Unsplash
- SEO-gestützte Content- und PR-Distribution. Holen Sie sich noch heute Verstärkung.
- PlatoData.Network Vertikale generative KI. Motiviere dich selbst. Hier zugreifen.
- PlatoAiStream. Web3-Intelligenz. Wissen verstärkt. Hier zugreifen.
- PlatoESG. Kohlenstoff, CleanTech, Energie, Umwelt, Solar, Abfallwirtschaft. Hier zugreifen.
- PlatoHealth. Informationen zu Biotechnologie und klinischen Studien. Hier zugreifen.
- Quelle: https://singularityhub.com/2024/11/29/openais-gpt-4o-makes-ai-clones-of-real-people-with-surprising-ease/