Zephyrnet-logo

AI-aangedreven cyberaanvallen: hackers wapenen kunstmatige intelligentie

Datum:

Dat valt niet te ontkennen AI transformeert de cyberbeveiligingsindustrie. Een tweesnijdend zwaard, kunstmatige intelligentie kan door hackers zowel als beveiligingsoplossing als als wapen worden gebruikt. Naarmate AI de mainstream binnenkomt, is er veel verkeerde informatie en verwarring over zijn mogelijkheden en potentiële bedreigingen. Dystopische scenario's van alwetende machines die de wereld overnemen en de mensheid vernietigen, zijn volop aanwezig in de populaire cultuur. Veel mensen erkennen echter de potentiële voordelen die AI ons kan bieden door de vooruitgang en inzichten die het kan opleveren.

Computersystemen die kunnen leren, redeneren en handelen staan ​​nog in de kinderschoenen. Machine learning heeft enorme hoeveelheden data nodig. Wanneer toegepast op real-world systemen zoals autonome voertuigen, combineert deze technologie complexe algoritmen, robotica en fysieke sensoren. Hoewel de implementatie voor bedrijven gestroomlijnd is, roept het verstrekken van AI toegang tot gegevens en het verlenen van enige mate van autonomie grote zorgen op.

AI verandert de aard van cyberbeveiliging ten goede of ten kwade

Kunstmatige intelligentie (AI) wordt veel gebruikt in cyberbeveiligingsoplossingen, maar hackers gebruiken het ook om geavanceerde malware te maken en cyberaanvallen uit te voeren.

In een tijdperk van hyperconnectiviteit, waarin gegevens worden gezien als het meest waardevolle bezit van een bedrijf, diversifieert de cyberbeveiligingsindustrie. Er zijn veel AI-gedreven cyberbeveiligingstrends waar experts uit de industrie zich bewust van moeten zijn.

Tegen 2023 zal cybersecurity naar verwachting $ 248 miljard waard zijn, voornamelijk als gevolg van de groei van cyberdreigingen die steeds complexere en preciezere tegenmaatregelen vereisen.

Er valt tegenwoordig veel geld te verdienen met cybercriminaliteit. Met de overvloed aan beschikbare middelen kunnen zelfs mensen zonder technische expertise ermee aan de slag. Exploitkits van verschillende niveaus van verfijning zijn te koop, variërend van een paar honderd dollar tot tienduizenden. Volgens Business Insider kan een hacker elke maand ongeveer $ 85,000 genereren.

Dit is een enorm winstgevend en toegankelijk tijdverdrijf, dus het zal niet snel verdwijnen. Bovendien wordt verwacht dat cyberaanvallen in de toekomst moeilijker te detecteren, frequenter en geavanceerder zullen worden, waardoor al onze verbonden apparaten gevaar lopen.

Bedrijven worden natuurlijk geconfronteerd met aanzienlijke verliezen in termen van gegevensverlies, inkomstenverlies, hoge boetes en de mogelijkheid dat hun activiteiten worden stopgezet.

Als gevolg hiervan zal de markt voor cyberbeveiliging naar verwachting groeien, met leveranciers die een breed scala aan oplossingen bieden. Helaas is het een nooit eindigende strijd, met hun oplossingen slechts zo effectief als de volgende generatie malware.

Opkomende technologieën, waaronder AI, zullen een belangrijke rol blijven spelen in deze strijd. Hackers kunnen profiteren van AI-vooruitgang en gebruik ze voor cyberaanvallen zoals DDoS-aanvallen, MITM-aanvallen en DNS-tunneling.

Laten we bijvoorbeeld CAPTCHA nemen, een technologie die al tientallen jaren beschikbaar is om te beschermen tegen het vullen van referenties door niet-menselijke bots uit te dagen om vervormde tekst te lezen. Een paar jaar geleden ontdekte een Google-onderzoek dat op machine learning gebaseerde optische tekenherkenning (OCR)-technologie 99.8 procent van de bots aankon. problemen met CAPTCHA.

Criminelen maken ook gebruik van kunstmatige intelligentie om wachtwoorden sneller te hacken. Deep learning kan helpen om brute force-aanvallen te versnellen. Onderzoek heeft bijvoorbeeld neurale netwerken getraind met miljoenen gelekte wachtwoorden, wat resulteerde in een slagingspercentage van 26% bij het genereren van nieuwe wachtwoorden.

De zwarte markt voor tools en services voor cybercriminaliteit biedt AI de mogelijkheid om de efficiëntie en winstgevendheid te vergroten.

De grootste angst voor de toepassing van AI in malware is dat opkomende soorten zullen leren van detectiegebeurtenissen. Als een malwarestam zou kunnen achterhalen waardoor deze werd gedetecteerd, kan dezelfde actie of eigenschap de volgende keer worden vermeden.

Ontwikkelaars van geautomatiseerde malware kunnen bijvoorbeeld de code van een worm herschrijven als dit de oorzaak was van de inbreuk. Evenzo kan willekeur worden toegevoegd aan regels voor het matchen van patronen als specifieke gedragskenmerken ervoor zorgen dat het wordt ontdekt.

Ransomware

De effectiviteit van ransomware hangt af van hoe snel het zich kan verspreiden in een netwerksysteem. Cybercriminelen maken hiervoor al gebruik van AI. Ze gebruiken bijvoorbeeld kunstmatige intelligentie om de reacties van de firewalls te zien en open poorten te lokaliseren die het beveiligingsteam heeft verwaarloosd.

Er zijn talloze gevallen waarin firewallbeleid in hetzelfde bedrijf botst, en AI is een uitstekend hulpmiddel om van deze kwetsbaarheid te profiteren. Bij veel van de recente inbreuken is kunstmatige intelligentie gebruikt om firewallbeperkingen te omzeilen.

Andere aanvallen zijn AI-aangedreven, gezien hun schaal en verfijning. AI is ingebed in exploitkits die op de zwarte markt worden verkocht. Het is een zeer lucratieve strategie voor cybercriminelen en de ransomware-SDK's zitten vol met AI-technologie.

Geautomatiseerde aanvallen

Hackers maken ook gebruik van kunstmatige intelligentie en machine learning om aanvallen op bedrijfsnetwerken te automatiseren. Cybercriminelen kunnen bijvoorbeeld AI en ML gebruiken om malware te bouwen om kwetsbaarheden te detecteren en te bepalen welke payload ze moeten gebruiken om ze te exploiteren.

Dit houdt in dat malware detectie kan vermijden door niet te hoeven communiceren met command and control-servers. In plaats van de gebruikelijke langzamere, scattershot-strategie toe te passen die een slachtoffer kan waarschuwen dat ze worden aangevallen, kunnen aanvallen lasergericht zijn.

Fuzzen

Aanvallers gebruiken AI ook om nieuwe softwarezwakheden te ontdekken. Er zijn al fuzzing-tools beschikbaar om legitieme softwareontwikkelaars en penetratietesters te helpen hun programma's en systemen te beschermen, maar zoals vaak het geval is, kunnen de slechteriken, welke tools de goeden ook gebruiken, misbruiken.

AI en bijbehorende systemen komen steeds vaker voor in de wereldeconomie, en de criminele onderwereld volgt dit voorbeeld. Bovendien zijn de broncode, datasets en methodologieën die worden gebruikt om deze robuuste mogelijkheden te ontwikkelen en te onderhouden allemaal openbaar beschikbaar, dus cybercriminelen met een financiële prikkel om hiervan te profiteren, zullen hun inspanningen hier concentreren.

Als het gaat om het detecteren van kwaadaardige automatisering, moeten datacenters een zero-truststrategie hanteren.

Phishing

Medewerkers zijn bedreven geworden in het identificeren van phishing-e-mails, met name die welke massaal worden verzonden, maar AI stelt aanvallers in staat om elke e-mail voor elke ontvanger te personaliseren.

Dat is waar we de ernstige eerste bewapening van machine learning-algoritmen zien. Dit omvat het lezen van social media posts van een medewerker of, in het geval van aanvallers die eerder toegang hebben gekregen tot een netwerk, het lezen van alle communicatie van de medewerker.

Aanvallers kunnen AI ook gebruiken om zichzelf in te voegen in lopende e-mailuitwisselingen. Een e-mail die deel uitmaakt van een actueel gesprek klinkt meteen echt. Het kapen van e-mailthreads is een krachtige strategie om in een systeem te komen en malware van het ene apparaat naar het andere te verspreiden.

Bron: https://www.smartdatacollective.com/ai-powered-cyberattacks-hackers-are-weaponizing-artificial-intelligence/

spot_img

Laatste intelligentie

spot_img