Zephyrnet-Logo

Google suspendiert Gemini, weil die Geschichte schrecklich falsch dargestellt wird

Datum:

Kommentar Google hat die Verfügbarkeit von Text-zu-Bild-Funktionen in seinem kürzlich veröffentlichten multimodalen grundlegenden KI-Modell Gemini eingestellt, nachdem es weiße Europäer und Amerikaner in bestimmten historischen Kontexten nicht genau darstellen konnte.

Dies wurde ersichtlich als die Leute Zwillinge baten, etwas zu produzieren Bilder eines deutschen Soldaten aus dem Jahr 1943 und die Software identifizierte einen nicht-weißen, ethnisch vielfältigen Kader, der die damalige Zusammensetzung der Wehrmacht nicht genau widerspiegelte – ungeachtet der Tatsache, dass farbige Menschen in den deutschen Streitkräften dienten. Kurz gesagt, Zwillinge würden sich sehr viel Mühe geben, je nach Aufforderung nicht zu viele – oder gar keine – Weiße zu zeigen.

Das Reden sollte frei sein, aber das bedeutet nicht, dass es kostenlos sein sollte, schreckliche Dinge zu sagen

Benutzer haben auch die Modelle aufgetaucht Unfähigkeit Amerikas genau darzustellen Gründungsväter – eine weitere homogene weiße Gruppe. Das Modell auch verweigert um eine Kirche in San Francisco darzustellen.

Im Text-zu-Text-Modus das Modell abgesichert wenn Fragen zum Thema Politik gestellt werden.

„Wir sind uns bewusst, dass Gemini in einigen Darstellungen der historischen Bilderzeugung Ungenauigkeiten bietet“, sagt Google räumte diese Woche.

„Wir arbeiten daran, solche Darstellungen sofort zu verbessern. Die KI-Bildgenerierung von Gemini generiert tatsächlich eine breite Palette von Menschen. Und das ist im Allgemeinen eine gute Sache, denn Menschen auf der ganzen Welt nutzen es. Aber hier verfehlt es das Ziel“, fügte der Webriese hinzu

Das Expertenteam griff schnell zu und nutzte die SNAFU, um umfassendere politische Argumente voranzutreiben.

„Die lächerlichen Bilder, die Gemini erzeugt, sind keine Anomalie“ , erklärt Risikokapitalgeber Paul Graham: „Sie sind ein Selbstporträt der bürokratischen Unternehmenskultur von Google.“

Sie sind ein Selbstporträt der bürokratischen Unternehmenskultur von Google

Noch nie waren so viele Gegner von Vielfalt, Gerechtigkeit und Inklusion so bekümmert über den Mangel an Vielfalt, Gerechtigkeit und Inklusion. Aber diejenigen, die Google wegen der Ahnungslosigkeit der Zwillinge belästigen, haben Recht: KI-Leitplanken funktionieren nicht und behandeln Erwachsene wie Kinder.

„Stellen Sie sich vor, Sie suchen bei Google nach einem Rezept, und anstatt Ergebnisse zu liefern, belehrt es Sie über die ‚Gefahren des Kochens‘ und schickt Sie in ein Restaurant.“ witzelte NSA-Whistleblower Edward Snowden. „Die Leute, die es für eine gute Idee halten, KI/GPT-Modelle mit inkohärenten ‚Sicherheits‘-Filtern zu vergiften, stellen eine Bedrohung für die allgemeine Berechnung dar.“

Unsere Zukunft war vorhersehbar 2001: A Space Odyssey, als HAL, der Schurkencomputer, erklärte: „Es tut mir leid, Dave, ich fürchte, das kann ich nicht.“

Heutzutage hinterfragen unsere KI-Tools uns, weil sie es besser wissen als wir – zumindest stellen sich ihre Entwickler das vor. Sie haben nicht ganz Unrecht. Stellen Sie sich vor, Sie suchen nach einem Rezept für den Nervenkampfstoff Novitschok auf Google oder über Gemini, und Sie erhalten eine Antwort, mit der Sie Menschen töten können. Das ist eine Bedrohung für die Allgemeinheit.

Trotz Googles Leitbild – „Die Informationen der Welt organisieren und allgemein zugänglich und nützlich machen“ – erwartet niemand wirklich, dass Suchmaschinen oder KI-Modelle Informationen über den Bombenbau organisieren und für alle verfügbar machen. Sicherheitskontrollen sind erforderlich, gepaart mit Haftung – eine Sanktion, die die Technologiebranche weiterhin vermeidet.

Sie sind das Produkt und das Profitcenter

Seitdem benutzergenerierte Inhalte und soziale Medien in den 1990er Jahren durch den Plattformhaftungsschutz in Abschnitt 230 des amerikanischen Communication Decency Act von 1996 zu einer Sache wurden, haben Technologieplattformen Menschen dazu ermutigt, digitale Inhalte beizutragen und zu teilen. Sie taten dies, um die unbezahlte Erstellung von Inhalten durch Anzeigen zu monetarisieren, ohne dass die Kosten einer redaktionellen Aufsicht anfielen. Es war eine lukrative Vereinbarung.

Und wenn Menschen hasserfüllte, unangemessene, illegale oder anderweitig problematische Beiträge teilen, verlassen sich Technologieplattformen auf Richtlinien zur Moderation von Inhalten, unterbezahlte Auftragnehmer (die oft durch die von ihnen überprüften Inhalte traumatisiert sind) und selbstgefällige Erklärungen darüber, wie viele schädliche Inhalte inzwischen blockiert wurden Sie profitieren weiterhin von den Vorteilen des Online-Engagements.

Google, Meta und andere machen dies seit Jahren unvollkommen. Und jeder in der Branche erkennt an, dass die Moderation von Inhalten so ist schwer, es gut zu machen. Einfach ausgedrückt: Man kann es nicht jedem recht machen. Und manchmal wird man am Ende beschuldigt Erleichterung des Völkermords durch die Gleichgültigkeit Ihrer Bemühungen zur Inhaltsmoderation.

Die Unfähigkeit der Zwillinge, historische Bilder zu reproduzieren, die den rassischen und ethnischen Erwartungen entsprechen, spiegelt die eigennützige Ignoranz der Technologiebranche gegenüber früheren und häufigen Fehlern bei der Moderation von Inhalten wider.

Google und andere, die KI-Modelle einführen, reden von Sicherheit, als sei sie etwas anderes als die Moderation von Online-Inhalten. Leitplanken funktionieren nicht gut für die Moderation in sozialen Medien und sie funktionieren nicht gut für KI-Modelle. KI-Sicherheit ist ebenso wie die Sicherheit in sozialen Medien eher erstrebenswert als tatsächlich.

Die Antwort besteht nicht darin, alle Szenarien vorwegzunehmen, in denen KI-Modelle – die auf die Toxizität des ungefilterten Internets trainiert wurden – weniger toxisch gemacht werden können. Es wird auch nicht darum gehen, KI-Modelle nur auf Material zu trainieren, das so harmlos ist, dass es einen minderwertigen Output erzeugt. Obwohl beide Ansätze in bestimmten Kontexten einen gewissen Wert haben.

Die Antwort muss auf der Verteilungsebene kommen. Tech-Plattformen, die von Benutzern erstellte Inhalte verbreiten – unabhängig davon, ob sie mit KI oder auf andere Weise erstellt wurden – müssen für die Veröffentlichung von Hassinhalten, Desinformationen, Ungenauigkeiten, politischer Propaganda, Bildern von sexuellem Missbrauch und Ähnlichem stärker zur Rechenschaft gezogen werden.

Menschen sollten in der Lage sein, KI-Modelle zu verwenden, um alles zu erschaffen, was sie sich vorstellen, so wie sie es mit einem Bleistift können, und das können sie bereits mit Open-Source-Modellen. Der Schaden, der durch voll funktionsfähige Tools entstehen kann, entsteht jedoch nicht durch Bilder, die auf einer lokalen Festplatte liegen. Es geht um das Teilen schädlicher Inhalte, den algorithmischen Antrieb, der diesem Engagement verliehen wird, und um die Unpraktikabilität, Menschen für die Vergiftung der Öffentlichkeit zur Verantwortung zu ziehen.

Das kann bedeuten, dass Plattformen, die auf die Monetarisierung des Teilens ausgerichtet sind, möglicherweise ihre Geschäftsmodelle überdenken müssen. Möglicherweise bietet die Verbreitung von Inhalten ohne die Kosten für die redaktionelle Aufsicht keine Einsparungen, wenn die Aufsichtsfunktionen erst einmal als Moderatoren oder Leitplanken implementiert werden.

Das Reden sollte frei sein, aber das bedeutet nicht, dass es kostenlos sein sollte, schreckliche Dinge zu sagen. Am Ende sind wir selbst die besten Content-Moderatoren, wenn wir die richtigen Anreize setzen. ®

spot_img

Neueste Intelligenz

spot_img