Logo Zéphyrnet

Comment repérer les Deepfakes IA sur les réseaux sociaux

Date :

Une vidéo publiée la semaine dernière sur la plateforme de médias sociaux chinoise Weibo montre la pop star américaine Taylor Swift parlant couramment le mandarin. Seulement, ce n'était pas le chanteur de 33 ans dans le clip. Il s’agissait d’une vidéo deepfake générée par un outil d’IA de la start-up chinoise HeyGen.

Depuis le 21 octobre, date à laquelle le deepfake de Swift a été créé commun, la vidéo a recueilli plus de six millions de vues. Mais cela a également déclenché un débat sur les pièges potentiels qui surviennent à mesure que l’IA progresse, rendant difficile la distinction entre les identités ou les contenus réels et faux.

Les deepfakes – des images ou des vidéos réalistes mais fausses utilisées pour usurper l'identité d'une autre personne, y compris sa voix – peuvent être déployés pour créer de fausses identités numériques, ce que les cybercriminels pourraient exploiter pour commettre une fraude. Les images et vidéos ressemblent et parlent exactement comme la personne ciblée.

En mai, par exemple, un homme d'affaires chinois perdu 4.3 millions de yuans [$612,000] après qu'un fraudeur ait utilisé l'IA d'échange de visage pour se faire passer pour son ami. Il n'y a eu aucune perte d'argent dans le deepfake de Taylor Swift, mais voici ce qu'il faut surveiller pour éviter de se faire escroquer sur les réseaux sociaux.

Vérifier les mentions de célébrités de l'IA

Les fraudeurs utilisent généralement des deepfakes d’individus de confiance pour attirer leurs victimes. Ces derniers mois, d’innombrables fausses célébrités de l’IA sont apparues pour tromper les gens avec de fausses mentions. De fausses versions d’icônes comme Elon Musk et Beyoncé sont ciblées pour promouvoir de fausses marques.

Apparemment, de nombreuses fausses publicités sont mieux classées dans les résultats de recherche sur Google, probablement parce que l'entreprise n'en fait pas assez pour filtrer les contenus frauduleux.

Cependant, à l’ère des faux contenus générés par l’IA, il est crucial d’aborder les vidéos trop belles pour être vraies avec un œil critique. Des affirmations extraordinaires nécessitent des preuves extraordinaires. Si vous tombez sur des vidéos virales qui semblent sensationnelles, prenez le temps de vérifier leur authenticité et leurs sources.

« Si vous souhaitez des conseils sur un produit ou un service, consultez les avis ou trouvez un expert qui s'y connaît et peut le prouver », explique Kim Komando, experte en technologies grand public et animatrice de radio.

« Une autre étape intelligente : recherchez sur Google le produit et l'acteur dans l'annonce, ainsi que le mot « avis ». Si quelqu'un est payé pour promouvoir un produit, il n'y a pas qu'une seule publicité aléatoire qui circule sur les réseaux sociaux", a-t-elle ajouté dans un article. publié par le New York Post.

A lire également: Taylor Swift, Emma Watson et d'autres ciblées par la montée du porno IA

Prêter attention aux détails

La technologie Deepfake est particulièrement effrayante car elle est très réaliste. Des outils d'IA tels que Diffusion stable peut manipuler les voix et les mouvements de la bouche, permettant ainsi aux gens de croire facilement qu'un enregistrement vidéo ou audio est authentique.

Rappelez-vous l'IA créée par Ghostwriter Chanson de Drake et The Weeknd, qui a trompé des millions de personnes, y compris les services de streaming musical, en leur faisant croire qu'il s'agissait d'une nouvelle version ? Pour repérer un deepfake, Alex Kim, co-fondateur et PDG de Rice, un accélérateur de commerce électronique basé sur l'IA, suggère de :

« Faites attention à toute incohérence inhabituelle dans la vidéo que vous regardez. Les créateurs de contenu qui utilisent des deepfakes essaient généralement de gagner du temps, donc peaufiner les détails n’est pas quelque chose dans lequel ils investiront du temps », a déclaré Kim à MetaNews.

"Cela signifie que des expressions faciales incompatibles, des mouvements non naturels, des artefacts étranges, une inadéquation des voix ou une synchronisation labiale seront probablement présents sur une vidéo deepfake", a déclaré Kim, ajoutant :

"Portez une attention particulière aux yeux, car c'est avec eux que les deepfakes ont le plus de difficultés."

Le cas de l’homme d’affaires chinois rappelle que la technologie des deepfakes est un outil puissant qui peut être utilisé pour le bien ou le mal. Les régulateurs ont commencé à prêter davantage attention aux dangers de l’IA depuis qu’OpenAI a lancé son chatbot viral ChatGPT en novembre, déclenchant une course mondiale à l’IA.

Comme MetaNews précédemment rapporté, les experts suggèrent de développer de nouvelles technologies capables de détecter et d'empêcher l'utilisation de fausses identités. Cela pourrait inclure l’utilisation de données biométriques, telles que la reconnaissance faciale ou la numérisation d’empreintes digitales, pour vérifier l’identité des utilisateurs en ligne.

Vérifiez les antécédents pour trouver des indices

Alors que certaines applications utilisent filigranes pour identifier les contenus générés par l’IA, ce n’est pas si évident avec d’autres. Les utilisateurs devront scanner l'arrière-plan des images ou des vidéos pour trouver des indices sur le matériel deepfake de l'IA, selon Alex Kim, le Riz.win PDG

"Si l'arrière-plan bouge de manière anormale ou si l'éclairage ne correspond pas aux ombres du premier plan, il s'agit probablement d'un deepfake", a déclaré Kim. "Des détails comme la texture des matériaux, ou leur absence, sont d'autres signes."

« Recherchez la pixellisation ou le flou là où il ne devrait pas y en avoir, surtout si cela se produit sur un sujet humain. Les détails naturels comme la racine des cheveux, les oreilles, le nez ou les traits du visage sont difficiles à reproduire dans un deepfake, du moins de manière convaincante.

La technologie de l’IA, qui reste pour l’essentiel gratuite et facilement accessible, est utilisée de diverses manières par de mauvais acteurs. Des images de célébrités féminines de haut niveau, dont Taylor Swift et Emma Watson, ont été manipulées à l'aide de l'IA pour créer des deepfakes. contenu pornographique.

Un nouvel outil d’IA du Massachusetts Institute of Technology (MIT) aux États-Unis promet de lutter contre les deepfakes. Les gens peuvent utiliser PhotoGuard pour apporter « de petits ajustements invisibles pour protéger [leurs] photos des deepfakes et des modifications désagréables – une référence prometteuse en matière de sécurité en ligne ».

Alex Kim a déclaré à MetaNews que le moyen le plus évident et le plus courant d'identifier les fausses vidéos d'IA sur les réseaux sociaux est de considérer les chaînes sur lesquelles elles sont hébergées.

"Vous voudrez regarder combien la chaîne a publié récemment et s'il y a eu des pics ou des poussées importants dans la création de contenu", a déclaré Kim. "S'il y a une forte augmentation du nombre de vidéos publiées qui semblent bizarres, de mauvaise qualité ou étranges, c'est un signe assez certain que le créateur utilise des deepfakes."

spot_img

Dernières informations

spot_img