Logo Zéphyrnet

Briser le faux : la course est lancée pour mettre fin à la fraude par clonage vocal

Date :

Escroqueries

Alors que le clonage vocal basé sur l'IA dynamise les escroqueries frauduleuses, nous nous entretenons avec Jake Moore d'ESET pour discuter de la façon de raccrocher aux appels frauduleux « hi-fi » – et de ce que l'avenir nous réserve en matière de détection des deepfakes.

Briser le faux : la course est lancée pour mettre fin aux escroqueries au clonage vocal de l'IA

Seriez-vous séduit par un faux appel de votre PDG vous demandant de transférer de l'argent ? Comme notre collègue Jake Moore l'a découvert, Tu pourrais. À mesure que les ordinateurs disposant de cycles de calcul disponibles reçoivent de plus en plus de données d’entraînement, les deepfakes s’améliorent de plus en plus. Donnez-leur un long discours de PDG et ils gagneront en inflexion, en ton et en d'autres modèles de discours nuancés qui peuvent éventuellement les rendre assez convaincants.

Maintenant, aux États-Unis au moins, il existe un concours pour briser le faux, et, espérons-le, trouver des moyens de fournir aux systèmes défensifs des moyens de contrecarrer une attaque connexe. Le défi lancé par la Federal Trade Commission (FTC) a amené les concurrents à pirater ensemble toutes les technologies qu'ils pouvaient trouver pour contrecarrer les contrefaçons de voix et gagner un prix de 25,000 XNUMX $.

Les concours ont été utilisés pour tout, depuis la conception de combinaisons spatiales jusqu'aux véhicules autonomes en passant par les technologies solaires, et visent désormais à stimuler l'intérêt et les participants dans l'arène de la défense deepfake, en aspirant à créer une course pour protéger les consommateurs contre les méfaits du clonage vocal activé par l'IA. Une fois inscrit via le portail, vos idées peuvent rivaliser avec d’autres approches pour, espérons-le, remporter l’or.

Je me demande toujours si cela peut arrêter quelqu'un comme Jake, alors je lui ai demandé.

jake-moore-headshot

Q : Les entreprises seront-elles en mesure de se défendre contre cette menace en utilisant les technologies actuelles et largement disponibles (et si oui, lesquelles) ?

Jake : Malheureusement, je ne pense pas que la réponse réside encore dans les technologies de contre-mesure pour lutter contre ce problème en évolution. Nous sommes encore dans la phase naissante de cette nouvelle ère de l’IA et de nombreuses entreprises se fondent sur l’idée des bonnes, des mauvaises et des mauvaises utilisations et de leurs capacités. La technologie est continuellement développée pour aider ceux qui en ont besoin, mais comme dans toute phase naissante d’une nouvelle technologie, le rythme rapide d’un tel mouvement ne peut pas suivre l’évolution des demandes illicites d’utilisation pour arnaquer les personnes et les entreprises.

Q : Mêmes questions pour les particuliers, pensez aux escroqueries aux retraités, aux escroqueries amoureuses, etc. ?

Jake : L'IA a permis aux fraudeurs de mener leurs actions à des échelles beaucoup plus grandes qu'auparavant, ce qui signifie que le jeu des chiffres est devenu encore plus grand. Lorsque davantage de personnes sont ciblées, les récompenses récoltées sont bien plus importantes et sans réel effort supplémentaire de la part des fraudeurs.

Cependant, les individus doivent continuer à être plus avertis face à toutes les escroqueries, des fraudes classiques aux tendances actuelles. En particulier, avec la naissance du clonage de voix et de la falsification de ressemblances avec une précision frappante, les gens doivent arrêter de penser que voir (et entendre), c'est croire. Rester conscient que de telles escroqueries sont possibles donnera aux personnes ciblées la confiance nécessaire pour remettre en question ces communications avec plus d’attention et leur apprendra à ne pas avoir peur de remettre en question leurs actions.

Il existe de nombreux conseils sur Internet offrant des conseils de sensibilisation à de telles escroqueries et les gens doivent continuellement se mettre à jour avec les dernières informations pour devenir et rester protégés.

Q: Que peuvent faire les équipes antifraude institutionnelles pour atténuer les attaques contre leurs utilisateurs/clients, et qui doit payer si des personnes se font arnaquer ?

Jake : Par défaut, les équipes antifraude doivent proposer à tout prix des formations, qui doivent être annuelles et ponctuelles pour tous les membres d'une organisation. Les attaques de simulation et les jeux de guerre contribuent également à faire passer le message de manière intéressante et à introduire un problème grave dans une dynamique plus intéressante, permettant ainsi l'échec dans un environnement sûr.

Une fois que les gens auront expérimenté la notion d’attaque moderne et auront été témoins de l’ampleur de cette nouvelle technologie, ils seront plus susceptibles de se souvenir des conseils donnés lors d’une attaque réelle. L’IA est toujours très impressionnante, donc voir les deepfakes en action dans un environnement sûr donne l’opportunité de montrer les résultats potentiellement dangereux qu’elle peut également créer sans trop créer de facteur de peur.

Q : Il s’agit clairement d’un jeu du chat et de la souris, alors qui va gagner ?

Jake : Depuis le début, il y a eu une course-poursuite entre « flics et voleurs » où les voleurs ont généralement quelques longueurs d'avance. Cependant, à mesure que la technologie s'améliore, nous devons nous assurer de ne pas nous laisser distancer et de donner un avantage encore plus grand aux fraudeurs.

Il est essentiel que les individus disposent des outils et des connaissances adéquats pour lutter au mieux contre ces grèves inévitables, afin que les fraudeurs ne gagnent pas toujours. En se tenant au courant des derniers vecteurs d’attaque et de l’évolution des escroqueries, les particuliers et les entreprises ont les meilleures chances de se défendre contre cette nouvelle vague d’attaques technologiques.

Une chose est sûre : il ne s’agit plus d’une menace théorique. Attendez-vous à ce que 2024 et au-delà soient le moment où les fraudeurs trouveront de nouveaux moyens automatisés de lancer très rapidement des attaques vocales, en particulier en réponse à des événements cataclysmiques où un responsable de confiance vous « demande » de faire quelque chose. Tout cela semblera convaincant, avec un air d’urgence et avec ce qui semble être une authentification auditive multifactorielle, mais vous pouvez toujours vous faire arnaquer, même si vous « avez personnellement entendu un responsable ».

Merci pour votre temps, Jake.

spot_img

Dernières informations

spot_img