Logo Zéphyrnet

Google empêche le chatbot AI Gemini de discuter du discours électoral

Date :

Croix de Tyler


Croix de Tyler

Publié le: 13 mars 2024

Le modèle Gemini AI créé par Google a été interdit de discours électoral pendant le cycle électoral de 2024. Plusieurs entreprises technologiques, dont Google, ont réalisé des percées massives dans la technologie de l’IA au cours de l’année écoulée. Cependant, les modèles d’IA sont devenus suffisamment puissants pour provoquer des fraudes électorales à grande échelle et alimenter des campagnes de propagande politique s’ils tombent entre de mauvaises mains.

Alors que l’IA devient plus largement disponible, les électeurs américains craignent, à juste titre, que des entreprises comme Google puissent utiliser leurs modèles d’IA pour modifier le cours des élections en diffusant de la désinformation. De nombreux utilisateurs signalent déjà que des modèles comme Gemini et ChatGPT ont des préjugés politiques évidents dans leurs écrits.

Alphabet (la société mère de Google) répond aux préoccupations des citoyens en renforçant les principes de son entreprise. Ils ont complètement interdit les discours électoraux pendant le cycle électoral de 2024.

Si vous posez des questions liées aux élections aux Gémeaux sur Donald Trump, Joe Biden ou d'autres candidats, le chatbot répond simplement : « J'apprends encore à répondre à cette question. En attendant, essayez la recherche Google.

Ces restrictions ont été annoncées pour la première fois en décembre. Google a expliqué qu'il souhaitait mettre en place ces défenses le plus tôt possible, afin que les acteurs (ou même l'entreprise elle-même) n'aient pas la possibilité de les utiliser pour diffuser des informations erronées.

"En préparation des nombreuses élections qui auront lieu dans le monde en 2024 et par prudence sur un sujet aussi important, nous limiterons bientôt les types de requêtes liées aux élections pour lesquelles Gemini renverra des réponses", a déclaré un porte-parole de Google.

Le resserrement du discours électoral en Gémeaux contraste fortement avec les récentes décisions d'OpenAI. La société derrière ChatGPT a acquis une mauvaise presse après être revenue sur deux clauses de sécurité importantes. Les conditions d'utilisation de ChatGPT n'autorisaient initialement pas son utilisation dans des campagnes politiques ou militaires.

Au fil du temps, ChatGPT a modifié ses conditions d'utilisation pour interdire uniquement les utilisations « à risque » de ChatGPT dans les campagnes politiques et permettre aux militaires de l'utiliser pour autre chose que la fabrication d'armes.

spot_img

Dernières informations

spot_img