Logo Zéphyrnet

Deepfakes d’IA électorale : les régulateurs européens s’en sortiront-ils ?

Date :

Les deepfakes d’IA électorale devraient submerger les régulateurs de l’UE alors que plus de 10 pays de la région se rendront aux urnes en 2024 sur fond de gouvernements mal préparés.

En 2024, le continent devrait connaître un afflux de deepfakes à motivation politique sous forme de vidéos, d’audios et d’images. Avec des outils comme Midjourney version 6, créant un « photoréalisme incroyable », il sera facile de cibler de vraies personnes ou des scènes d’émeutes et de mouvements de migrants.

Plusieurs élections européennes

Selon Signaux de BruxellesL'Autriche, la Finlande, la Croatie, la Belgique, la Lituanie, l'Islande, le Portugal, la Roumanie et la Slovaquie organiseront des élections nationales l'année prochaine.

Ailleurs, l'Allemagne, l'Irlande, Malte et la Pologne organisent des élections locales, tandis que l'Espagne organise deux élections régionales.

À l’échelle mondiale, environ 25 % de la population mondiale vit dans un pays qui organisera des élections en 2024, par exemple les États-Unis.

La période électorale arrive également à un moment où le monde connaît un boom de la IA générative suite à la success story de ChatGPT, lancée en novembre 2022.

À ce titre, Henry Ajder, fondateur d'une startup d'IA générative à Cambridge, affirme que l'année 2024 verra « le plus grand nombre de personnes se rendant aux élections, et en même temps, nous assistons à une évolution et un déploiement assez rapides comme l'éclair de l'IA. »

A lire également: Le gouvernement sud-coréen déclare qu'il n'y a aucun droit d'auteur sur le contenu de l'IA

Mauvaise préparation

Sara Ibrahim, avocate au Gatehouse Chambers de Londres qui travaille et écrit souvent sur l'IA, estime que les prochaines élections seront confrontées à des menaces liées à l'IA en raison du manque de préparation des régulateurs européens à faire face à l'utilisation de l'IA pendant la période électorale.

Elle pense que la région est actuellement caractérisée par « une tempête parfaite de gouvernements mal préparés et une possibilité à grande échelle de tromperie et de fraude, diffusant rapidement des informations erronées ».

Les tribunaux européens ont déjà eu un avant-goût de l’impact de l’IA générative, ce qui constitue un signe avant-coureur.

Le système judiciaire, selon Ibrahim, « connaît déjà des gens citant des cas inventés de toutes pièces et hallucinés par ChatGPT, donc une véritable pression sur les ressources publiques à une époque où l’économie n’est guère robuste ».

Arrêter la propagation des deepfakes à l’aide de la réglementation pourrait s’avérer une tâche ardue pour l’UE à l’heure actuelle.

"Les régulateurs ne peuvent pas empêcher une personne d'utiliser un outil incroyablement accessible pour générer de l'audio ou de la vidéo sur son ordinateur, la partager sur Twitter au moment opportun ou la diffuser sur des groupes Discord", explique Ajder.

Malgré le fait d'avoir le Loi sur les services numériques Dans l’UE, son efficacité « reste à prouver », selon Oxford Analytica.

L'IA trompeuse

Même si elle a été présentée comme une révolution en raison de ses capacités de transformation, le monde a déjà été témoin des pièges de l’IA générative. Les images, vidéos et audio générés par l’IA deviennent « parfaits » et difficiles à distinguer des images réelles, laissant les utilisateurs dans le pétrin.

En septembre, au milieu des élections au Bangladesh, un média connu sous le nom de BD Politico a diffusé une vidéo sur la plateforme X montrant des émeutes provoquées par l’ingérence des diplomates américains dans les élections du pays.

Mais la vidéo a été créée en utilisant Salut Gén, un générateur vidéo IA. Le présentateur de nouvelles dans les images, « Edward », est l’un des nombreux avatars que le générateur vidéo propose aux utilisateurs moyennant un abonnement de 24 $ par mois.

Un autre exemple est celui d'un enregistrement audio mettant en vedette Sir Keir Starmer abusant verbalement ses collaborateurs lors de la conférence du parti travailliste britannique en septembre. Le clip a été visionné 1.5 million de fois.

Au cours du même mois, un autre extrait de Le maire de Londres Sadiq Khan les appels à un report du jour de l'armistice en raison d'une marche pro-palestinienne ont été largement diffusés.

Selon Brussels Signal, les clips ont prouvé qu'ils étaient générés par l'IA.

[Contenu intégré]

Des politiciens vulnérables

En raison des postes qu’ils occupent, des hommes politiques et des personnalités de premier plan ont été la cible de deepfakes d’IA, en particulier à l’approche des élections partout dans le monde.

Ajder a reconnu que les politiciens « sont particulièrement vulnérables ».

"Il y a beaucoup de données d'entraînement dans les images d'eux, et se tenir sur des podiums ou s'asseoir à un bureau est quelque chose de particulièrement facile à simuler", a déclaré Ajder.

Récemment, le Pakistan Imran Khan avait une voix générée par l'IA appelant au soutien alors qu'il était en prison lors d'un rassemblement virtuel de sept heures.

Des clips vidéo des conflits à Gaza et en Ukraine ont également montré des bébés ensanglantés et abandonnés, mais ceux-ci n'étaient pas réels. Un examen plus approfondi a révélé des doigts courbés de « manières anatomiquement impossibles ou des couleurs d'yeux non naturelles », selon Imran Ahmed, directeur général du Center for Countering Digital Hate, basé à Washington, DC.

Ce qui peut être fait?

Même si la production et la diffusion de contenus extrémistes peuvent s’avérer coûteuses, la fréquence à laquelle de tels contenus apparaissent sur des plateformes comme X est élevée.

Selon Ahmed, une IA non réglementée va « dynamiser la haine et la désinformation ».

Même si les régulateurs ne peuvent pas faire grand-chose pour le moment, il est nécessaire de garantir la divulgation de tout contenu généré par l’IA par les politiciens, selon Ajder.

"Ou du moins, son utilisation sans divulgation est autorisée uniquement lorsqu'il est incroyablement clair pour le public que ce n'est pas réel et qu'il s'agit d'une parodie", dit-il.

spot_img

Dernières informations

spot_img