Zephyrnet-logo

Hackers verkopen meer dan 225,000 ChatGPT-accounts op het Dark Web

Datum:

Penka Hristovska


Penka Hristovska

Gepubliceerd op: 7 maart 2024

Volgens cijfers van Group-IB zijn tussen januari en oktober 25,000 ruim 2023 records met gecompromitteerde OpenAI ChatGPT-inloggegevens te koop aangeboden op het dark web.

De groep legde in haar rapport ‘Hi-Tech Crime Trends 2023/2024’, dat vorige week werd uitgebracht, uit dat ‘het aantal geïnfecteerde apparaten halverwege en aan het eind van de zomer licht daalde, maar tussen augustus en september aanzienlijk groeide.’

De gecompromitteerde inloggegevens werden gedetecteerd in logboeken die verband hielden met informatiestelende malware, met name LummaC2, Raccoon en RedLine stealer. Uit de bevindingen van Group-IB blijkt dat LummaC2 70,484 hosts heeft aangetast, Raccoon 22,468 hosts heeft getroffen en RedLine 15,970 hosts heeft aangevallen.

Van juni tot oktober 2023 werden meer dan 130,000 unieke hosts die verbonden waren met OpenAI ChatGPT gecompromitteerd, wat een stijging van 36% betekent ten opzichte van de cijfers die in de eerste vijf maanden van het jaar werden geregistreerd.

“De scherpe stijging van het aantal ChatGPT-inloggegevens dat te koop is, is te wijten aan de algemene stijging van het aantal hosts dat is geïnfecteerd met informatiestelers, waarvan de gegevens vervolgens te koop worden aangeboden op markten of in UCL’s”, aldus Group-IB.

Ze zeggen dat slechte actoren hun aandacht verleggen van bedrijfscomputers naar openbare AI-systemen.

“Hiermee krijgen ze toegang tot logs met de communicatiegeschiedenis tussen medewerkers en systemen, waarmee ze kunnen zoeken naar vertrouwelijke informatie (voor spionagedoeleinden), details over de interne infrastructuur, authenticatiegegevens (voor het uitvoeren van nog schadelijkere aanvallen) en informatie over broncode van de applicatie.”

Het nieuws volgt op een rapport van Microsoft waarin het bedrijf op dezelfde manier meldde dat bedreigingsactoren “AI, inclusief LLM’s, gebruiken om hun productiviteit te verbeteren en te profiteren van toegankelijke platforms die hun doelstellingen en aanvalstechnieken zouden kunnen bevorderen.”

Het erkende ook dat “cybercriminaliteitsgroepen, nationale dreigingsactoren en andere tegenstanders verschillende AI-technologieën onderzoeken en testen zodra deze zich voordoen, in een poging de potentiële waarde van hun activiteiten te begrijpen en de veiligheidscontroles die ze mogelijk moeten omzeilen.”

Het bedrijf benadrukte echter dat zijn “onderzoek met OpenAI geen significante aanvallen heeft geïdentificeerd waarbij gebruik wordt gemaakt van de LLM’s die we nauwlettend volgen.”

spot_img

Laatste intelligentie

spot_img