Logo Zéphyrnet

Twitter dans l'eau chaude légale alors que l'Allemagne menace l'amende

Date :

Selon les experts, les chatbots éliminent une barrière importante contre les e-mails de phishing frauduleux en corrigeant les fautes de grammaire et d'orthographe évidentes.

Depuis le lancement du chatbot viral AI ChatGPT l'année dernière, écrire des e-mails de phishing et frauduleux à consonance humaine est devenu beaucoup plus facile, comme auparavant rapporté par MetaNews.

Lisez aussi: Assistant de cybersécurité basé sur l'IA dévoilé par Microsoft

Ces e-mails sont un piège efficace pour les cybercriminels, qui les utilisent pour inciter les destinataires à cliquer sur des logiciels malveillants ou à transmettre des informations personnelles telles que des mots de passe, des noms d'utilisateur, des codes de transaction, des détails de carte, etc.

"Chaque hacker peut désormais utiliser une IA qui traite toutes les fautes d'orthographe et la mauvaise grammaire", a affirmé Valérie Plante. Corey Thomas, directeur général de la société américaine de cybersécurité Rapid7.

Les chatbots IA corrigent un défaut fondamental dans certaines tentatives de phishing, qui implique une orthographe et une grammaire médiocres. Ces chatbots peuvent corriger les erreurs qui déclenchent souvent les filtres anti-spam ou alertent les lecteurs humains, rendant ainsi les e-mails de phishing plus efficaces.

La moitié de la population adulte totale au Pays de Galles et au Royaume-Uni reçu e-mails de phishing l'année dernière, selon l'Office for National Statistics (ONS). Ces e-mails de phishing étaient principalement destinés aux personnes âgées de 25 à 44 ans.

Contournement des filtres anti-spam

Le record de ChatGPT a atteint 100 millions d'utilisateurs deux mois seulement après son lancement. Bien qu'il ait été mis au travail de manière positive par beaucoup, Omniprésent d'OpenAI L'outil a certainement attiré l'attention des mauvais acteurs, y compris ceux qui mènent des campagnes de phishing.

"L'idée que vous pouvez compter sur la recherche d'une mauvaise grammaire ou orthographe pour repérer une attaque de phishing n'est plus le cas. Nous avions l'habitude de dire que vous pouviez identifier les attaques de phishing parce que les e-mails avaient une certaine apparence. Cela ne fonctionne plus », a déclaré Thomas.

Selon Darktrace, une société de cybersécurité basée au Royaume-Uni, les e-mails de phishing sont de plus en plus écrits par des bots, permettant aux cybercriminels de surmonter les barrières linguistiques et d'envoyer des messages plus longs qui sont plus difficiles à détecter par les filtres anti-spam.

Si l'utilisation de grands modèles de langage (LLM) comme ChatGPT a réduit le volume global d'e-mails malveillants détectés par le système de surveillance de Darktrace, elle a également entraîné une augmentation de la complexité linguistique de ces e-mails.

Max Heinemeyer, directeur des produits de la société, pense que les escrocs utilisent des modèles de langage avancés comme ChatGPT pour rédiger des e-mails de phishing plus longs et plus complexes.

"Même si quelqu'un dit, 'ne vous inquiétez pas pour ChatGPT, il va être commercialisé', eh bien, le génie est sorti de la bouteille." a affirmé Valérie Plante. Heinemeyer.

Affecter l'ingénierie sociale

L'utilisation de modèles de langage avancés pour l'ingénierie sociale a un impact immédiat sur le paysage des menaces, selon le CPO.

Avec l'aide de l'IA, les cybercriminels peuvent facilement créer des e-mails de "spear-phishing" très convaincants et d'autres communications écrites plus difficiles à détecter.

"L'IA vous permet de créer des e-mails de 'spear-phishing' très crédibles et d'autres communications écrites avec très peu d'effort, surtout par rapport à ce que vous deviez faire auparavant", a déclaré Heinemeyer.

Il explique qu'en utilisant des LLM, tels que ChatGPT, les cybercriminels peuvent facilement créer des e-mails personnalisés en explorant les profils des réseaux sociaux et en saisissant des données dans le modèle.

Cela permet aux escrocs de générer des e-mails convaincants qui sont presque impossibles à distinguer de ceux écrits par des humains - même s'ils ne maîtrisent pas parfaitement la langue anglaise.

Europol a récemment publié un avis international consultatif concernant l'utilisation criminelle potentielle de grands modèles de langage tels que ChatGPT.

"Alors que les capacités des LLM telles que ChatGPT sont activement améliorées, l'exploitation potentielle de ces types de systèmes d'IA par des criminels offre de sombres perspectives", a déclaré Europol.

La fraude et l'ingénierie sociale, la désinformation et la cybercriminalité sont les trois principaux domaines parmi les nombreux sujets de préoccupation identifiés par les experts d'Europol.

spot_img

Dernières informations

spot_img