Logo Zéphyrnet

Deepfake CFO dupe un employé pour 25.6 millions de dollars dans une arnaque à l'IA à Hong Kong

Date :

Un employé financier d'une multinationale basée à Hong Kong aurait perdu 200 millions de dollars de Hong Kong (25.6 millions de dollars) d'argent de l'entreprise après que des fraudeurs aient utilisé une technologie d'IA deepfake pour se faire passer pour le directeur financier de l'entreprise lors d'une vidéoconférence.

La police a déclaré que l'employé avait reçu le mois dernier un message d'une personne prétendant être le directeur financier de l'entreprise basé à Londres. La personne, qui s'est avérée être un escroc, a demandé au travailleur de rejoindre un appel vidéo « crypté » avec quatre à six autres membres du personnel.

Après une première hésitation, l'employé a été convaincu après l'appel vidéo parce que les autres personnes présentes ressemblaient à des personnes qu'il connaissait au travail, selon le Hong Kong Standard. rapporté.

A lire également: Un homme perd 600,000 XNUMX $ à cause d'un arnaqueur utilisant l'IA à échange de visage

Arnaquer un professionnel de la finance

Le faux directeur financier n’a pas perdu de temps. Il a rapidement lancé des appels urgents pour faciliter les transferts d'argent. La victime pensait que toutes les autres personnes participant à l'appel vidéo étaient réelles et s'est conformée aux instructions, effectuant finalement 15 virements vers cinq comptes bancaires locaux.

Au total, le travailleur a accepté de transférer 200 millions de dollars de Hong Kong, soit environ 25.6 millions de dollars américains à l'époque. L'employé a découvert qu'il avait été trompé une semaine plus tard après avoir vérifié auprès du siège social de l'entreprise. Il a signalé l'affaire à la police.

"(Lors de la) vidéoconférence à plusieurs personnes, il s'avère que tout le monde [qu'il a vu] était faux", a déclaré le surintendant principal de la police de Hong Kong, le baron Chan Shun-ching. Le policier n'a pas révélé le nom ni les coordonnées de l'entreprise ou du travailleur.

Selon Chan, les vidéos ont été générées à l’aide de l’IA et réalisées à partir de véritables conférences en ligne antérieures. Pour ajouter de la profondeur et de la crédibilité à l'arnaque, les fraudeurs ont utilisé WhatsApp, le courrier électronique et des vidéoconférences individuelles avec des membres du personnel de Hong Kong.

"Je crois que le fraudeur a téléchargé des vidéos à l'avance, puis a utilisé l'intelligence artificielle pour ajouter de fausses voix à utiliser lors de la vidéoconférence", a déclaré Chan, et dans un autre rapport, il a ajouté :

"Ils ont utilisé la technologie deepfake pour imiter la voix de leurs cibles lisant un script."

La police a déclaré que les cas où la technologie de deepfake de l'IA était utilisée pour tromper les gens et leur soutirer de l'argent étaient en augmentation à Hong Kong. Entre juillet et septembre 2023, huit cartes d'identité locales volées ont été utilisées pour effectuer 90 demandes de prêt et 54 enregistrements de comptes bancaires, a déclaré Chan. rapporté par CNN.

Selon la police de Hong Kong, les escrocs auraient utilisé Deepfakes d'IA au moins 20 fois pour tromper les logiciels de reconnaissance faciale « en imitant les personnes représentées sur les cartes d’identité ». La police a arrêté six personnes en lien avec de telles escroqueries.

Deepfake CFO dupe un employé pour 25.6 millions de dollars dans une arnaque à l'IA à Hong Kong

Deepfake CFO dupe un employé pour 25.6 millions de dollars dans une arnaque à l'IA à Hong Kong

Les deepfakes de l’IA inquiètent les dirigeants mondiaux

À mesure que l’IA progresse, il deviendra de plus en plus difficile de faire la distinction entre les identités réelles et fausses, selon les experts. La technologie peut porter atteinte à la sécurité et à la confidentialité des identités numériques.

Par exemple, il peut être utilisé pour créer des images ou des vidéos deepfakes, réalistes mais fausses, utilisées pour usurper l'identité de quelqu'un d'autre, y compris sa voix, comme le souligne l'affaire de Hong Kong.

Les régulateurs du monde entier ont commencé à accorder davantage d’attention aux dangers de l’IA depuis qu’OpenAI a lancé son chatbot viral. ChatGPT en Novembre 2022.

Aux États-Unis, les sénateurs introduit un projet de loi bipartite à la fin du mois dernier qui permettrait aux victimes représentées dans des deepfakes pornographiques non consensuels générés par l'IA de poursuivre les créateurs des vidéos.

La décision est intervenue après des images sexuellement explicites générées par l'IA de Taylor Swift est devenue virale sur les réseaux sociaux, y compris sur X, où des dizaines de millions de personnes les ont vues avant que la plateforme anciennement connue sous le nom de Twitter ne bloque les recherches sur le chanteur pop.

En Chine, l'administration du cyberespace du pays a publié l'année dernière de nouvelles réglementations interdisant l'utilisation de contenus générés par l'IA pour diffuser des « fausses nouvelles ». La réglementation exige également que les fournisseurs de technologies deepfake étiquetent clairement leurs produits comme étant synthétiques.

En Inde, le ministre de l'informatique Rajeev Chandrasekhar a récemment averti que les sociétés de médias sociaux seraient tenues responsables des deepfakes d’IA publiés par des personnes sur leurs plateformes. Cela fait suite à une vidéo semi-nue créée par l'IA de l'acteur indien Rashmika Mandanna. paru en ligne en novembre.

spot_img

Dernières informations

spot_img