Logo Zéphyrnet

La FTC offre de l'argent pour les meilleures idées pour contrecarrer le clonage vocal de l'IA

Date :

La Federal Trade Commission (FTC) promet une récompense de 25,000 XNUMX $ pour la meilleure solution pour lutter contre la menace croissante du clonage vocal de l’IA.

Parfois qualifiés de deepfakes audio, le nombre de services en ligne proposant des fonctionnalités de clonage vocal faciles à utiliser a proliféré depuis que l’IA générative s’est généralisée, suscitant des inquiétudes quant à son potentiel d’abus lors de cyberattaques.

Par exemple, une menace largement répandue pourrait consister à usurper la voix des PDG pour usurper leur identité et demander au service financier de virer de l’argent sur le compte d’un attaquant. Les amis et les familles pourraient également être amenés à envoyer de l’argent à leurs proches. artistes interprètes leurs moyens de subsistance pourraient être menacés si la technologie continue à évoluer.

Les parties intéressées ont jusqu'au 12 janvier pour soumettre leurs idées pour lutter contre la fraude au clonage vocal basée sur l'IA, en se concentrant principalement sur la prévention, le suivi et l'évaluation de la technologie.

"Cet effort pourrait contribuer à faire avancer des idées visant à atténuer les risques en amont, en protégeant les consommateurs, les professionnels de la création et les petites entreprises contre les méfaits du clonage vocal avant que les dommages n'atteignent le consommateur", a déclaré la FTC. a affirmé Valérie Plante.

«Cela peut également aider à faire avancer des idées pour atténuer les risques au niveau du consommateur. Et si des idées viables n’émergent pas, cela enverra un avertissement critique et précoce aux décideurs politiques les invitant à envisager des limites plus strictes à l’utilisation de cette technologie, compte tenu du défi que représente la prévention du développement nuisible d’applications sur le marché.

Les soumissions seront évaluées en fonction de leur faisabilité d'exécution et d'administration, de leur résilience aux changements technologiques et de la manière dont elles prennent en compte de manière réfléchie la manière dont la responsabilité serait imposée aux entreprises, entre autres mesures.

Le premier prix proposé est de 25,000 XNUMX $, ce qui ne ressemble pas à une mine d’or compte tenu des vastes applications potentielles d’une solution ingénieuse.

Un finaliste recevra également 4,000 2,000 $, trois mentions honorables recevront chacune 10 XNUMX $ pour leurs problèmes, et les organisations de XNUMX personnes ou plus recevront un prix de reconnaissance sans numéraire.

L'abus de voix de l'IA en action

L’efficacité du clonage vocal de l’IA a été prouvée dans des cas répétés au cours de l’année écoulée. Experts du magasin de sécurité slovaque ESET montré comment l’exemple susmentionné de PDG usurpés peut être réalisé.

En fait, cela a été un problème pendant des années avant que l’IA générative ne soit accessible au commun des mortels. Une société énergétique britannique a été drainé de 243,000 XNUMX $ en 2019 après que son PDG ait reçu pour instruction d'envoyer une somme importante à un fournisseur hongrois.

Un New York Times rapport, toujours au cours des 12 mois précédents, a détaillé une série d'affaires ciblant avec succès le secteur financier, incitant les banques à transférer de l'argent de ceux qu'elles croyaient être de véritables clients. Il reg a également fait état de faits similaires attaques ayant lieu aux Émirats arabes unis aussi loin que 2021.

Les escroqueries amoureuses sont également monnaie courante, un Britannique tombant amoureux d'un Kevin Costner usurpé, et les criminels ont également montré qu’ils n’hésitaient pas à commettre des actes criminels. escroqueries liées aux « urgences familiales » – ceux qui ciblent les parents avec les voix clonées de leurs enfants demandant de l’argent pour payer leur caution, par exemple.

Plus exemples sinistres J’ai vu des mères répondre à des appels de leurs filles prétendument prises en otage par des « ravisseurs » qui exigent d’énormes rançons.

Le clonage vocal est rendu possible en fournissant à un modèle d’IA suffisamment de données d’entraînement pour comprendre le son, le ton, le rythme, l’inflexion et d’autres nuances de la voix d’un individu. On pense que les célébrités et autres personnalités publiques courent un risque élevé d’être victimes de ces attaques étant donné le nombre d’enregistrements de leurs voix qui existent en ligne.

Avec l'essor des médias sociaux et de la culture de la création de contenu vidéo, de nombreuses non-célébrités et même des enfants disposent également de suffisamment de matériel en ligne pour former efficacement un modèle.

Les chercheurs de Kaspersky ont étudié l'année dernière l'augmentation du clonage de voix par l'IA et ont découvert une grande variété d'outils open source disponibles gratuitement qui pourraient générer des voix clonées à l'aide de la technologie de l'IA. Cependant, ils ont soutenu que pour qu’un clone convaincant soit opérationnel, il fallait un peu de savoir-faire en Python et quelques bricolages de la part du cloneur.

Cependant, les offres payantes ont tendance à être beaucoup plus efficaces. Les chercheurs ont souligné Le modèle VALL-E de Microsoft cela pourrait soi-disant générer un clone décent avec seulement trois secondes d'audio vocal utilisées comme données d'entraînement.

Il existe également d'autres solutions payantes qui fonctionnent mieux que les solutions gratuites, mais celles-ci n'en sont encore qu'à leurs premiers stades de développement, nous pouvons donc nous attendre à ce que la précision et l'efficacité de ces modèles s'améliorent au fil du temps. ®

spot_img

Dernières informations

spot_img