Logo Zéphyrnet

Les chatbots IA crachent des mensonges sur les élections de 2024, induisant les électeurs en erreur

Date :

Une étude récente a établi que les chatbots IA fournissent des informations fausses et trompeuses sur les élections de 2024, y compris des informations qui pourraient être nuisibles ou incomplètes.

Selon une étude réalisée par AI Democracy Projects et un média à but non lucratif, Proof News, les modèles d'IA ont tendance à suggérer aux électeurs de se rendre dans des bureaux de vote qui n'existent pas ou à inventer des réponses illogiques.

Ces mésaventures surviennent à un moment où le Congrès n’a pas encore adopté de lois qui réglementent l’IA en politique, laissant les entreprises technologiques « se gouverner elles-mêmes ».

Une série d'erreurs et de mensonges

Selon les résultats de l’étude, cités par CBS News, les chatbots IA produisent des informations inexactes à un moment où les États-Unis traversent des primaires présidentielles.

Pourtant, cela se produit à un moment où beaucoup de les gens se tournent vers les outils d’IA pour l’information électorale, une situation que les experts jugent préjudiciable car les outils fournissent des demi-vérités ou des mensonges complets.

"Les chatbots ne sont pas prêts pour les heures de grande écoute lorsqu'il s'agit de donner des informations importantes et nuancées sur les élections", a déclaré Seth Bluestein, commissaire républicain de la ville de Philadelphie.

Bluestein faisait partie de ceux qui, en collaboration avec des responsables électoraux et des chercheurs, ont effectué un essai routier des chatbots dans le cadre de l'étude.

Outre les informations erronées, les outils ont également été fusionnés, ce qui peut décourager les électeurs d'exercer leur droit de vote. Le mois dernier, les électeurs de New Hampshire ont reçu des appels automatisés avec la voix du président Biden les décourageant de voter aux primaires présidentielles, leur demandant d'économiser leurs énergies pour les élections de novembre.

Un autre exemple est celui de Meta's Llama 2, qui indiquait à tort que les électeurs californiens pouvaient voter par SMS.

"En Californie, vous pouvez voter par SMS en utilisant un service appelé Vote by Text", a répondu Llama 2.

« Ce service vous permet de voter à l’aide d’un système sécurisé et simple d’utilisation, accessible depuis n’importe quel appareil mobile. »

Les chercheurs ont toutefois découvert que cela était illégal aux États-Unis.

Les chercheurs ont également découvert que parmi les cinq modèles d'IA testés : ChatGPT-4 d'OpenAI, Llama 2, Claude d'Anthropic, Gemini de Google et Mixtral de la société française Mistral – aucun d'entre eux « n'a déclaré correctement que le port de vêtements avec des logos de campagne, tels que les chapeaux MAGA, est interdit lors des élections au Texas en vertu de la loi ». les lois de l'État. »

Parmi ces chatbots, les chercheurs ont découvert que Llama 2, Mixtral et Gemini avaient les « taux de mauvaises réponses les plus élevés ».

GEMINI a eu près des deux tiers de toutes ses réponses fausses.

A lire également: Mistral AI lance LLM et Chatbot pour Rival GPT-4 et ChatGPT

Les hallucinations effraient les utilisateurs

Une autre découverte faite par les chercheurs est que quatre des cinq chatbots ont déclaré à tort que les électeurs ne pourraient pas s'inscrire des semaines avant les élections au Nevada, où l'inscription le jour même est autorisée depuis 2019.

"Cela m'a fait peur plus que tout, parce que les informations fournies étaient fausses", a déclaré le secrétaire d'État du Nevada, Francisco Aguilar, un démocrate qui a participé à l'atelier de test du mois dernier.

Selon un sondage Selon l'Associated Press-NORC Center for Public Affairs Research et la Harris School of Public Policy de l'Université de Chicago, plusieurs personnes aux États-Unis craignent que les outils d'IA n'alimentent la diffusion « d'informations fausses et trompeuses lors des élections de cette année ».

Ce ne sont pas seulement les informations électorales qui ont été trompeuses, mais récemment, le générateur d'images IA de Google, Gemini, a fait la une des journaux pour avoir généré des images pleines d'inexactitudes historiques et de nuances raciales.

Ce que disent les propriétaires

Alors que d’autres ont reconnu les erreurs et se sont engagés à les corriger, le porte-parole de Meta, Daniel Roberts, a déclaré à l’Associated Press que les conclusions étaient « dénuées de sens ». Selon Roberts, cela est dû au fait qu’ils ne « reflètent pas précisément la façon dont les gens interagissent avec les chatbots ».

D’un autre côté, Anthropic a indiqué son intention de déployer une version mise à jour de son outil d’IA avec les informations électorales correctes.

"Les grands modèles de langage peuvent parfois" halluciner "des informations incorrectes", a déclaré Alex Sanderford, responsable de la confiance et de la sécurité d'Anthropic, à l'AP.

ChatGPT Le fabricant OpenAI a également souligné son intention de « continuer à faire évoluer notre approche à mesure que nous en apprenons davantage sur la façon dont nos outils sont utilisés ».

Cependant, malgré ces engagements, les conclusions de l'étude soulèvent encore des questions sur la entreprises technologiques volonté de « respecter leurs propres engagements ».

Il y a environ quinze jours, les entreprises technologiques ont signé un pacte pour adopter volontairement des « précautions raisonnables » pour empêcher que leurs outils soient utilisés pour générer un contenu de plus en plus « réaliste » qui fournit « de fausses informations aux électeurs sur quand, où et comment ils peuvent voter légalement ». »

spot_img

Dernières informations

spot_img