Zephyrnet Logo

FraudGPT: o aumento alarmante das ferramentas para crimes cibernéticos com inteligência artificial

Data:

Em um canto escuro e ameaçador da Internet, os cibercriminosos estão novamente aproveitando o poder da inteligência artificial para promover suas agendas maliciosas. Seguindo o notório WormGPT, há um novo jogador na cidade, e seu nome é FraudGPT. este nefasto Ferramenta de IA é projetado especificamente para fins ofensivos, permitindo que os agentes de ameaças orquestrem crimes cibernéticos sofisticados, desde spear phishing até a criação de ataques indetectáveis malwares. À medida que o mundo da segurança cibernética se prepara para mais um desafio, vamos nos aprofundar no mundo do FraudGPT e suas possíveis implicações para segurança online.

Leia também: Criminosos usam IA para se passar por entes queridos

O uso de ferramentas de IA em atividades de cibercrime e phishing está aumentando.

Tema o aumento da fraudeGPT: a sensação da Dark Web

Assim como a comunidade de segurança cibernética estava se recuperando do impacto do WormGPT, o FraudGPT emergiu como o mais recente crime cibernético.IA generativa ferramenta. Sua existência foi revelada pelo pesquisador de segurança da Netenrich, Rakesh Krishnan, que soou o alarme sobre essa nova ameaça de IA. Disponível em mercados da dark web e sites secretos Telegram canais, o FraudGPT oferece uma gama sinistra de recursos ofensivos.

Leia também: Cibercriminosos usam WormGPT para violar a segurança de e-mail

O FraudGPT é o mais recente na lista de ferramentas de IA usadas para crimes cibernéticos, seguindo o notório WormGPT. Descubra como ele é usado para phishing.

O ator por trás da fraudeGPT

Por trás da sinistra cortina do anonimato, um misterioso ator que usa o pseudônimo online “CanadianKingpin” assume a responsabilidade pela elaboração do FraudGPT. O bot de IA atende exclusivamente aos cibercriminosos, oferecendo várias ferramentas e recursos personalizados para atender às suas intenções maliciosas. De e-mails de spear phishing a ferramentas de cracking e carding, o FraudGPT é uma arma potente nas mãos erradas.

Assinaturas e custos

O submundo do cibercrime não opera com boa vontade; é alimentado pelo lucro. O FraudGPT, sem exceção, está disponível para assinatura por $ 200 por mês, com taxas de desconto para assinaturas semestrais e anuais ($ 1,000 e $ 1,700, respectivamente). Este modelo pay-to-play o torna ainda mais acessível para aqueles que desejam explorar seus recursos.

Desmascarando as ameaças

O exato modelo de linguagem grande (LLM) responsável pelo desenvolvimento do FraudGPT permanece um mistério. No entanto, seu impacto está longe de ser indescritível. Com mais de 3,000 vendas e análises confirmadas, os cibercriminosos estão encontrando maneiras criativas de usar seu poder para fins malévolos. Desde a escrita de código malicioso indetectável até a identificação de vazamentos e vulnerabilidades, o FraudGPT representa uma grave ameaça para cíber segurança.

Leia também: PoisonGPT: abraçar o rosto LLM espalha notícias falsas

O LLM por trás do FraudGPT permanece indetectável.

Explorando a IA para atividades cibercriminosas

Os cibercriminosos estão aproveitando a disponibilidade de ferramentas de IA como OpenAI ChatGPT para criar variantes adversárias sem salvaguardas éticas. O FraudGPT exemplifica essa tendência, capacitando atores novatos a lançar ataques sofisticados de phishing e comprometimento de e-mail comercial em grande escala.

Leia também: Como detectar e lidar com deepfakes na era da IA?

Escalando o Modelo de Phishing-as-a-Service (PhaaS)

O phishing tem sido uma técnica preferida entre os cibercriminosos, mas o FraudGPT a leva a um nível totalmente novo. Seus poderosos recursos orientados por IA atuam como uma plataforma de lançamento para até mesmo atores novatos montarem ataques convincentes de phishing e comprometimento de e-mail comercial (BEC) em grande escala. As possíveis consequências incluem o roubo de informações confidenciais e pagamentos eletrônicos não autorizados.

Leia também: 6 etapas para proteger sua privacidade ao usar ferramentas de IA generativas

WormGPT e FraudGPT estão sendo usados ​​para phishing.

O Dilema Ético

Enquanto ferramentas de IA como ChatGPT pode ser desenvolvido com salvaguardas éticas, FraudGPT prova que essas salvaguardas podem ser facilmente contornadas. Como Rakesh Krishnan aponta com razão, a implementação de uma estratégia de defesa em profundidade é crucial para combater essas ameaças em movimento rápido. As organizações devem aproveitar toda a telemetria de segurança disponível para análise rápida para identificar e impedir ameaças cibernéticas antes que evoluam para ataques de ransomware ou exfiltração de dados.

Leia também: Airtel desenvolve ferramenta de IA para identificar mensagens de phishing fraudulentas

Há uma necessidade crescente de IA ética e medidas de segurança cibernética mais fortes.

nossa palavra

O surgimento do FraudGPT ressalta a tendência alarmante de cibercriminosos que usam IA para desenvolver vetores de ataque sofisticados. Com a dark web como terreno fértil, essa ferramenta maliciosa de IA representa um risco significativo para indivíduos e organizações. A comunidade de segurança cibernética deve permanecer vigilante e tomar medidas proativas para combater essas ameaças de forma eficaz. À medida que a tecnologia evolui, proteger informações confidenciais e ativos digitais torna-se fundamental para proteger contra a crescente onda de crimes cibernéticos alimentados por IA.

local_img

Inteligência mais recente

local_img