Zephyrnet-Logo

OpenAI steht vor einer Verleumdungsklage, da ChatGPT falsche Anschuldigungen gegen den Radiomoderator erhebt

Datum:

OpenAI, das renommierte künstliche Intelligenz Das Unternehmen kämpft derzeit mit einer Verleumdungsklage, die auf der Herstellung falscher Informationen durch sein Unternehmen beruht Sprachmodell, ChatGPT. Mark Walters, ein Radiomoderator in Georgia, hat eine Klage gegen OpenAI eingereicht, nachdem ChatGPT ihn fälschlicherweise des Betrugs und der Veruntreuung von Geldern einer gemeinnützigen Organisation beschuldigt hatte. Der Vorfall gibt Anlass zur Sorge hinsichtlich der Zuverlässigkeit von KI-generierten Informationen und des potenziellen Schadens, den sie verursachen können. Diese bahnbrechende Klage hat aufgrund der zunehmenden Fälle von Fehlinformationen und ihrer Auswirkungen auf die rechtliche Verantwortung große Aufmerksamkeit erregt.

Radiomoderator Mark Walters hat eine Verleumdungsklage gegen OpenAI eingereicht, da dessen KI-Chatbot ChatGPT falsche Anschuldigungen gegen ihn erhoben hat.

Die Vorwürfe: Die erfundenen Behauptungen von ChatGPT gegen Mark Walters

In dieser Verleumdungsklage wirft Mark Walters OpenAI vor, über ChatGPT falsche Anschuldigungen gegen ihn erhoben zu haben. Der Radiomoderator behauptet, ein Journalist namens Fred Riehl habe ChatGPT gebeten, einen echten Fall vor einem Bundesgericht zusammenzufassen, indem er einen Link zu einem Online-PDF bereitstellte. ChatGPT erstellte jedoch eine detaillierte und überzeugende falsche Zusammenfassung, die mehrere Ungenauigkeiten enthielt, was zur Diffamierung von Mark Walters führte.

Die wachsende Besorgnis über durch KI erzeugte Fehlinformationen

Falsche Informationen, die von KI-Systemen wie ChatGPT generiert werden, sind zu einem dringenden Problem geworden. Diesen Systemen fehlt eine zuverlässige Methode, um Fakten von Fiktionen zu unterscheiden. Wenn sie um Informationen gebeten werden, nennen sie häufig erfundene Daten, Fakten und Zahlen, insbesondere wenn sie aufgefordert werden, etwas bereits vorgeschlagenes zu bestätigen. Während diese Erfindungen die Benutzer meist in die Irre führen oder ihre Zeit verschwenden, gibt es Fälle, in denen solche Fehler Schaden angerichtet haben.

Lesen Sie auch: EU fordert Maßnahmen zur Identifizierung von Deepfakes und KI-Inhalten

Konsequenzen für die reale Welt: Fehlinformationen führen zu Schaden

Das Auftreten von Fällen, in denen KI-generierte Fehlinformationen Schaden anrichten, gibt Anlass zu ernster Besorgnis. Beispielsweise drohte ein Professor damit, seine Studenten durchfallen zu lassen, nachdem ChatGPT fälschlicherweise behauptet hatte, sie hätten KI zum Verfassen ihrer Aufsätze verwendet. Darüber hinaus drohten einem Anwalt mögliche Sanktionen, nachdem er ChatGPT zur Recherche in nicht existierenden Rechtsfällen genutzt hatte. Diese Vorfälle verdeutlichen die Risiken, die mit der Verwendung von KI-generierten Inhalten verbunden sind.

Lesen Sie auch: Anwalt wurde von gefälschten Rechtsrecherchen von ChatGPT getäuscht

ChatGPT von OpenAI schafft alternative Fakten, die Probleme im wirklichen Leben verursachen.

Verantwortung und Haftungsausschluss von OpenAI

OpenAI fügt auf der Homepage von ChatGPT einen kleinen Haftungsausschluss hinzu, in dem anerkannt wird, dass das System „gelegentlich falsche Informationen generieren kann“. Das Unternehmen bewirbt ChatGPT jedoch auch als zuverlässige Datenquelle und ermutigt Benutzer, „Antworten zu erhalten“ und „etwas Neues zu lernen“. Der CEO von OpenAI, Sam Altman, hat das Lernen von ChatGPT dem Lernen aus Büchern vorgezogen. Dies wirft Fragen hinsichtlich der Verantwortung des Unternehmens auf, die Richtigkeit der generierten Informationen sicherzustellen.

Lesen Sie auch: Wie gut eignen sich von Menschen trainierte KI-Modelle für die Schulung von Menschen?

Die rechtliche Haftung von Unternehmen für durch KI-Systeme generierte falsche oder verleumderische Informationen zu bestimmen, stellt eine Herausforderung dar. Internetfirmen sind in den USA traditionell durch Abschnitt 230 geschützt, der sie vor der rechtlichen Verantwortung für von Dritten erstellte Inhalte schützt, die auf ihren Plattformen gehostet werden. Ob sich dieser Schutz jedoch auch auf KI-Systeme erstreckt, die selbstständig Informationen generieren, darunter auch falsche Daten, bleibt ungewiss.

Lesen Sie auch: Chinas vorgeschlagene KI-Verordnung erschüttert die Branche

Die in Georgia eingereichte Verleumdungsklage von Mark Walters könnte möglicherweise den bestehenden Rechtsrahmen in Frage stellen. Dem Fall zufolge bat der Journalist Fred Riehl ChatGPT, ein PDF zusammenzufassen, und ChatGPT antwortete mit einer falschen, aber überzeugenden Zusammenfassung. Obwohl Riehl die falschen Informationen nicht veröffentlichte, wurden die Details mit einer anderen Partei überprüft, was dazu führte, dass Walters die Fehlinformationen entdeckte. Die Klage stellt die Verantwortung von OpenAI für solche Vorfälle in Frage.

Es bestehen Bedenken hinsichtlich der Echtheit von KI-generierten Inhalten, da KI falsche Informationen generiert.

Einschränkungen und Benutzerfehlleitungen von ChatGPT

Insbesondere kann ChatGPT trotz Riehls Bitte nicht ohne zusätzliche Plug-ins auf externe Daten zugreifen. Diese Einschränkung wirft Bedenken hinsichtlich der Möglichkeit einer Irreführung der Benutzer auf. Während ChatGPT Benutzer nicht auf diese Tatsache aufmerksam machen kann, reagierte es bei späteren Tests anders und stellte klar fest, dass es nicht in der Lage sei, auf bestimmte PDF-Dateien oder externe Dokumente zuzugreifen.

Lesen Sie auch: Erstellen Sie mit Langchain ein ChatGPT für PDFs

Eugene Volokh, ein auf die Haftung von KI-Systemen spezialisierter Rechtsprofessor, glaubt, dass Verleumdungsklagen gegen KI-Unternehmen theoretisch rechtlich zulässig sind. Er argumentiert jedoch, dass die Klage von Walters vor Herausforderungen stehen könnte. Volokh stellt fest, dass Walters OpenAI nicht über die falschen Aussagen informiert hat und ihnen damit die Möglichkeit genommen hat, die Situation zu korrigieren. Darüber hinaus gibt es keine Hinweise darauf, dass durch die Ausgabe von ChatGPT ein tatsächlicher Schaden entstanden ist.

Unser Sprichwort

OpenAI ist in eine bahnbrechende Klage wegen Verleumdung verwickelt, da ChatGPT falsche Anschuldigungen gegen Radiomoderator Mark Walters erhebt. Dieser Fall verdeutlicht die zunehmende Besorgnis über KI-generierte Fehlinformationen und ihre möglichen Folgen. Da rechtlicher Vorrang und Verantwortlichkeit in KI-Systemen in Frage gestellt werden, könnte der Ausgang dieser Klage die zukünftige Landschaft KI-generierter Inhalte und die Verantwortung von Unternehmen wie OpenAI prägen.

spot_img

Neueste Intelligenz

spot_img