Zephyrnet-Logo

MSN AI Post nennt unerwartet verstorbenen NBA-Spieler „nutzlos“

Datum:

Ein aus den Fugen geratener Artikel von MSN, dem Online-Nachrichtenportal von Microsoft, beschrieb in der Schlagzeile den verstorbenen ehemaligen NBA-Spieler Brandon Hunter als „nutzlos“, was in den sozialen Medien Empörung auslöste. Der Beitrag, der offenbar von einer KI verfasst wurde, wurde entfernt.

Laut mehreren Berichten brach der 42-jährige Hunter während einer Hot-Yoga-Sitzung in den Studios in Orlando zusammen und starb am 12. September Berichte. Zwischen 2003 und 2005 bestritt Hunter insgesamt 67 Spiele für die Boston Celtics und die Orlando Magic und hatte anschließend eine lange Karriere in Griechenland und Italien.

Lies auch: US-Regulierungsbehörde untersucht ChatGPT von OpenAI wegen der Verbreitung falscher Informationen

Microsoft MSN AI-Artikel bezeichnet unerwartet verstorbenen NBA-Spieler als „nutzlos“Microsoft MSN AI-Artikel bezeichnet unerwartet verstorbenen NBA-Spieler als „nutzlos“

„KI sollte keine Nachrufe schreiben“

In seiner Überschrift ist das verzerrt MSN-Artikel lautet: „Brandon Hunter mit 42 nutzlos.“ Der Rest des kurzen Artikels ist völliger Blödsinn und erzählt den Lesern, dass der Athlet „verstarb“, nachdem er „wichtige Erfolge als Stürmer für die Bobcats“ erzielt und „in 67 Videospielen gespielt“ hatte.

Hier ist die Einführung zum MSN-Beitrag, der a nachempfunden ist TMZ Sportgeschichte über den Tod des Ex-NBA-Spielers, nur weniger verständlich.

„Der frühere NBA-Spieler Brandon Hunter, der zuvor für die Boston Celtics und Orlando Magic spielte, ist im Alter von 42 Jahren verstorben, wie Jeff Boals, Basketballtrainer der Männer aus Ohio, am Dienstag mitteilte.“

Social-Media-Nutzer kritisierten MSN schnell als unsensibel, schlampig und „auf so vielen Ebenen peinlich“, wie ein Nutzer auf X, ehemals Twitter, sagte: Leg es. Ein anderer rief: „KI sollte keine Nachrufe schreiben. Bezahlen Sie Ihre verdammten Autoren, MSN.“

Posting auf Reddit, eine Person schrieb:

„Das Dystopischste daran ist, dass die KI, die uns ersetzt, genauso stumpfsinnig und dumm sein wird wie diese Übersetzung – aber für die Geldmänner reicht es.“

Ein anderer Reddit-Nutzer beschwerte sich über die Nachlässigkeit von MSN und warf dem Netzwerk vor, es gehe ihm nur darum, „Geld zu verdienen“.

„Wen interessiert es, ob diese Worte stimmen, sie bringen Geld!“ witzelte der Benutzer sarkastisch. „Es wird das Internet zerstören. Nur ein Meer von schlechten Inhalten, die darauf zugeschnitten sind, den Algorithmus auszutricksen und Menschen nicht glücklich oder gebildet zu machen.“

Dies ist nicht das erste Mal, dass MSN fehlerhafte KI-generierte Inhalte auf seinem Portal veröffentlicht. Im August veröffentlichte die Plattform einen bizarren, von KI geschriebenen Reiseführer über Ottawa, Kanada, und riet Touristen, eine örtliche Lebensmittelbank aufzusuchen. Der Artikel wurde nach Kritik am Futurismus gelöscht berichtet.

Halluzinierende Tatsachen

Microsoft leitender Direktor Jeff Jones sagte the Verge, dass „der [Ottawa]-Artikel nicht von einer unbeaufsichtigten KI veröffentlicht wurde. In diesem Fall wurde der Inhalt durch eine Kombination algorithmischer Techniken mit menschlicher Überprüfung generiert, nicht durch ein großes Sprachmodell oder KI-System.“

Im Jahr 2020 MSN Berichten zufolge entließ das gesamte Team menschlicher Journalisten, die für die Moderation von Inhalten auf seiner Plattform verantwortlich waren. Einigen Berichten zufolge hat MSN Inhalte veröffentlicht, die als lächerlich und schlampig gelten, darunter Geschichten über „Meerjungfrauen“.

Generative KI-Chatbots wie OpenAIs ChatGPT oder Googles Bard sind sehr intelligent und in der Lage, Text und Code zu generieren und sogar komplexe mathematische Probleme zu lösen. Aber die KI-Modelle sind es auch anfällig dazu, Unwahrheiten und völlige Lügen zu produzieren, oft mit Selbstvertrauen.

Die Technologiebranche bezeichnet diese selbstbewussten Lügen als „Halluzinationen.“ Diese Schwäche ist zu einem wichtigen Schwerpunktthema für Regulierungsbehörden auf der ganzen Welt geworden.

Im Juli beispielsweise leitete die US-amerikanische Federal Trade Commission (FTC) eine Untersuchung gegen OpenAI wegen möglicher Verstöße gegen Verbraucherschutzgesetze im Zusammenhang mit ChatGPT ein, dem die Verbreitung falscher Informationen und die Missachtung von Datenschutzbestimmungen vorgeworfen werden.

Die FTC untersucht, ob ChatGPT Menschen Schaden zufügte, indem es falsche Antworten auf ihre Fragen gab. Die Washington Post möchte wissen, ob das Unternehmen „unfaire oder irreführende Datenschutz- oder Datensicherheitspraktiken angewendet hat“, die den Ruf der Nutzer geschädigt haben berichtet.

spot_img

Neueste Intelligenz

spot_img