Logo Zéphyrnet

MSN AI Post qualifie un joueur de la NBA décédé de manière inattendue d'"inutile"

Date :

Un article déséquilibré publié par MSN, le portail d'information en ligne appartenant à Microsoft, a décrit dans son titre l'ancien joueur de la NBA décédé Brandon Hunter comme « inutile », suscitant l'indignation sur les réseaux sociaux. Le message, qui semble avoir été rédigé par une IA, a été retiré.

Hunter, 42 ans, s'est effondré lors d'une séance de yoga chaud dans les studios d'Orlando et est décédé le 12 septembre, selon plusieurs sources. rapports. Entre 2003 et 2005, Hunter a disputé 67 matchs au total pour les Boston Celtics et le Orlando Magic et a poursuivi une longue carrière en Grèce et en Italie.

A lire également: Le régulateur américain sonde ChatGPT d'OpenAI pour avoir diffusé de fausses informations

Un article de Microsoft MSN AI qualifie un joueur de la NBA décédé de manière inattendue d'« inutile »Un article de Microsoft MSN AI qualifie un joueur de la NBA décédé de manière inattendue d'« inutile »

« L'IA ne devrait pas rédiger de nécrologies »

Dans son titre, le discours déformé Article MSN se lit comme suit : « Brandon Hunter inutile à 42 ans. » Le reste du court article est une pure foutaise, disant aux lecteurs que l’athlète « est décédé » après avoir obtenu « un succès vital en tant qu’attaquant [sic] pour les Bobcats » et « joué dans 67 matchs ».

Voici l'introduction de la publication MSN, qui a été calquée sur un Histoire de TMZ Sports sur la mort de l'ancien joueur de la NBA, mais en moins intelligible.

"L'ancien joueur de la NBA Brandon Hunter, qui avait auparavant joué pour les Boston Celtics et l'Orlando Magic, est décédé à l'âge de 42 ans, comme l'a annoncé mardi l'entraîneur de basket-ball masculin de l'Ohio, Jeff Boals."

Les utilisateurs des médias sociaux ont rapidement critiqué MSN pour son insensibilité, son négligence et « embarrassant à bien des égards », comme l'a expliqué un utilisateur de X, anciennement Twitter : Mets-le. Un autre a crié : « AI ne devrait pas rédiger de nécrologies. Payez vos foutus écrivains, MSN.

Publication sur Reddit, une personne écrit:

"Le plus dystopique dans tout cela est que l'IA qui nous remplacera sera aussi stupide et stupide que cette traduction – mais pour les hommes d'argent, c'est suffisant."

Un autre rédacteur s'est plaint de la négligence de MSN, accusant le réseau de se soucier uniquement de « gagner de l'argent ».

"Peu importe si ces mots sont exacts, ils rapportent de l'argent !" » a plaisanté l’utilisateur sarcastiquement. «Cela va tuer Internet. Juste une mer de mauvais contenus conçus pour jouer avec l’algorithme et non pour rendre les humains heureux ou éduqués.

Ce n’est pas la première fois que MSN publie sur son portail du contenu erroné généré par l’IA. En août, la plateforme a publié un étrange guide de voyage écrit par l'IA sur Ottawa, au Canada, conseillant aux touristes de visiter une banque alimentaire locale. L'article a été supprimé après critique, Futurisme rapporté.

Des faits hallucinants

Microsoft directeur principal Jeff Jones dit the Verge que « l’article [d’Ottawa] n’a pas été publié par une IA non supervisée. Dans ce cas, le contenu a été généré grâce à une combinaison de techniques algorithmiques avec un examen humain, et non par un grand modèle de langage ou un système d’IA.

En 2020, MSN apparemment a licencié toute l’équipe de journalistes humains chargée de modérer les contenus de sa plateforme. Selon certains rapports, MSN aurait publié du contenu considéré comme ridicule et bâclé, notamment des histoires sur les « sirènes ».

Chatbots d'IA génératifs tels que ceux d'OpenAI ChatGPT ou Bard de Google sont très intelligents, capables de générer du texte, du code et même de résoudre des problèmes mathématiques complexes. Mais les modèles d’IA sont aussi enclin à produire des mensonges et des mensonges complets, souvent avec confiance.

L’industrie technologique qualifie ces mensonges confiants de «hallucinations.» Cette faiblesse est devenue un domaine d’intérêt majeur pour les régulateurs du monde entier.

En juillet, par exemple, la Federal Trade Commission (FTC) des États-Unis a ouvert une enquête sur OpenAI pour violations potentielles des lois sur la protection des consommateurs liées à ChatGPT, accusé de diffuser de fausses informations et de bafouer les règles de confidentialité des données.

La FTC enquête pour savoir si ChatGPT a causé du tort aux personnes en fournissant de mauvaises réponses à leurs questions. Il veut savoir si l’entreprise « s’est engagée dans des pratiques déloyales ou trompeuses en matière de confidentialité ou de sécurité des données » qui ont porté atteinte à la réputation des utilisateurs, selon le Washington Post. rapporté.

spot_img

Dernières informations

spot_img