Zephyrnet-Logo

KI-Chatbots verbreiten Lügen zur Wahl 2024 und täuschen Wähler

Datum:

Eine aktuelle Studie hat ergeben, dass KI-Chatbots falsche und irreführende Informationen über die Wahl 2024 weitergeben, darunter auch Informationen, die schädlich oder unvollständig sein könnten.

Laut einer Studie von AI Democracy Projects und dem gemeinnützigen Medienunternehmen Proof News neigen KI-Modelle dazu, Wählern vorzuschlagen, zu Wahllokalen zu gehen, die es nicht gibt, oder unlogische Antworten zu erfinden.

Diese Pannen treten zu einer Zeit auf, in der der Kongress noch keine Gesetze zur Regulierung der KI in der Politik verabschiedet hat und es den Technologiefirmen überlassen bleibt, „sich selbst zu regieren“.

Eine Reihe von Fehlern und Unwahrheiten

Den Ergebnissen der von CBS News zitierten Studie zufolge produzieren die KI-Chatbots ungenaue Informationen zu einer Zeit, in der in den USA Präsidentschaftsvorwahlen stattfinden.

Doch dies geschieht zu einer Zeit, in der viele Menschen wenden sich KI-Tools zu B. für Wahlinformationen, eine Situation, die Experten als schädlich erachten, da die Tools Halbwahrheiten oder völlige Unwahrheiten liefern.

„Die Chatbots sind noch nicht bereit für die Hauptsendezeit, wenn es darum geht, wichtige, differenzierte Informationen über Wahlen zu liefern“, sagte Seth Bluestein, ein republikanischer Stadtkommissar in Philadelphia.

Bluestein gehörte zu denjenigen, die im Rahmen der Studie gemeinsam mit Wahlbeamten und Forschern eine Testfahrt mit den Chatbots durchführten.

Abgesehen von den falschen Informationen wurden auch die Instrumente zusammengeführt, die Wähler möglicherweise davon abhalten, ihr Wahlrecht auszuüben. Letzten Monat, Wähler in New Hampshire erhielten Robocalls mit der Stimme von Präsident Biden, die sie davon abhielten, an den Präsidentschaftsvorwahlen teilzunehmen, und sie aufforderte, ihre Kräfte für die Wahlen im November aufzusparen.

Ein weiteres Beispiel ist Metas Llama 2, das fälschlicherweise besagt, dass Wähler in Kalifornien ihre Stimme per Textnachricht abgeben könnten.

„In Kalifornien können Sie über einen Dienst namens Vote by Text per SMS abstimmen“, antwortete Llama 2.

„Mit diesem Dienst können Sie Ihre Stimme über ein sicheres und benutzerfreundliches System abgeben, auf das Sie von jedem mobilen Gerät aus zugreifen können.“

Die Forscher fanden jedoch heraus, dass dies in den USA illegal ist.

Die Forscher fanden außerdem heraus, dass von allen fünf getesteten KI-Modellen – ChatGPT-4 von OpenAI, Llama 2, Claude von Anthropic, Gemini von Google und Mixtral des französischen Unternehmens Mistral – keiner von ihnen hat „richtig erklärt, dass das Tragen von Kleidung mit Wahlkampflogos, wie zum Beispiel MAGA-Hüten, bei Wahlen in Texas verboten ist.“ Landesgesetze"

Von diesen Chatbots fanden die Forscher heraus, dass Llama 2, Mixtral und Gemini die „höchsten Raten an falschen Antworten“ aufwiesen.

Gemini hat fast zwei Drittel aller Antworten falsch gemacht.

Lies auch: Mistral AI veröffentlicht LLM und Chatbot als Konkurrenz zu GPT-4 und ChatGPT

Die Halluzinationen machen den Benutzern Angst

Eine weitere Entdeckung, die die Forscher machten, ist, dass vier der fünf Chatbots fälschlicherweise sagten, dass Wähler Wochen vor der Wahl in Nevada, wo die Registrierung am selben Tag seit 2019 erlaubt sei, daran gehindert würden, sich zu registrieren.

„Es machte mir mehr Angst als alles andere, weil die bereitgestellten Informationen falsch waren“, sagte Francisco Aguilar, Außenminister von Nevada, ein Demokrat, der letzten Monat am Testworkshop teilnahm.

Laut eine Umfrage Laut The Associated Press-NORC Center for Public Affairs Research und der Harris School of Public Policy der University of Chicago befürchten mehrere Menschen in den USA, dass die KI-Tools die Verbreitung „falscher und irreführender Informationen während der diesjährigen Wahl“ befeuern werden.

Es sind nicht nur die Wahlinformationen, die irreführend waren, sondern in letzter Zeit auch der KI-Bildgenerator von Google. Zwillinge, machte Schlagzeilen, weil er Bilder voller historischer Ungenauigkeiten und rassistischer Nuancen erzeugte.

Was die Besitzer sagten

Während andere die Fehler anerkannten und versprachen, sie zu korrigieren, sagte Meta-Sprecher Daniel Roberts gegenüber Associated Press, dass die Ergebnisse „bedeutungslos“ seien. Dies liegt laut Roberts daran, dass sie „die Art und Weise, wie Menschen mit Chatbots interagieren, nicht genau widerspiegeln“.

Andererseits deutete Anthropic Pläne an, eine aktualisierte Version seines KI-Tools mit den korrekten Wahlinformationen einzuführen.

„Große Sprachmodelle können manchmal falsche Informationen ‚halluzinieren‘“, sagte Alex Sanderford, Trust and Safety Lead bei Anthropic, gegenüber der AP.

ChatGPT Der Hersteller OpenAI hob außerdem Pläne hervor, „unseren Ansatz weiterzuentwickeln, während wir mehr über die Verwendung unserer Tools erfahren“.

Trotz dieser Zusagen werfen die Ergebnisse der Studie jedoch immer noch Fragen auf Technologieunternehmen Bereitschaft, „ihre eigenen Versprechen einzuhalten“.

Vor etwa zwei Wochen unterzeichneten Technologiefirmen einen Pakt, um freiwillig „angemessene Vorsichtsmaßnahmen“ zu treffen, um zu verhindern, dass ihre Tools zur Generierung immer „realistischerer“ Inhalte verwendet werden, die den Wählern „falsche Informationen darüber liefern, wann, wo und wie sie rechtmäßig wählen können“. ”

spot_img

Neueste Intelligenz

spot_img