Zephyrnet-logo

Hoe kunstmatige intelligentie een bron van aanvallen en verdediging voor e-mails wordt

Datum:

De aanvallen op e-mails nemen toe en worden steeds geavanceerder. Sommige aanvallen maken gebruik van QR-codes en afbeeldingen om hun effectiviteit te vergroten. Anderen gebruiken deep fakes om de overtuigingskracht van oplichting via e-mail te vergroten. De populairste technologie die momenteel bij e-mailaanvallen wordt gebruikt, is echter kunstmatige intelligentie.

One studies laat zien dat ongeveer 90 procent van de organisaties het afgelopen jaar is getroffen door AI-gestuurde e-mailcyberaanvallen. Er is groeiende bezorgdheid over de rol van AI in het huidige dreigingslandschap. Het zou een nuttige technologie zijn, maar het lijkt ook cybercriminelen te helpen bij hun pogingen om beveiligingssystemen te omzeilen.

Hier is een blik op de yin- en yang-rollen die kunstmatige intelligentie speelt in de context van e-mailbeveiliging.

Aanvallen mogelijk maken

E-mail beveiliging wordt voortdurend bedreigd door verschillende aanvallen, met name phishing, compromittering van zakelijke e-mail, kwaadaardige links, malware en accountovernames. Zelfs vóór de komst van geavanceerde AI waren er al ernstige bedreigingen voor het e-mailgebruik. Nu, met de opkomst van kunstmatige intelligentie op het volgende niveau, zijn deze bedreigingen aanzienlijk verergerd.

Phishing-aanvallen worden versterkt door generatieve AI, die overtuigende e-mailteksten produceert die echte communicatie nabootsen en de schrijfstijl en woordkeuze van specifieke individuen benaderen. Dit heeft tot gevolg dat meer slachtoffers ongewild bezwijken voor de aanvallen en dat aanvallen moeilijker te onderscheiden zijn van legitieme berichten vanwege de gepersonaliseerde teksten die nu snel geproduceerd kunnen worden met behulp van generatieve AI.

Zakelijke e-mailcompromis (BEC) wordt door AI geavanceerder gemaakt door middel van verbeterde social engineering waarbij verschillende openbaar beschikbare gegevens over een doelorganisatie worden geanalyseerd om zeer gepersonaliseerde misleidende e-mails te bedenken die authentiek lijken. AI helpt ook bij het omzeilen van fraudedetectiesystemen door legitieme communicatiepatronen en gebruikersactiviteiten na te bootsen.

Schadelijke links en malware-aanvallen via e-mail krijgen op dezelfde manier een boost van AI, omdat malware nu snel kan worden gemaakt met AI. Er is ooit ontdekt dat ChatGPT in staat is om polymorfe of muterende malware te creëren die detectiesystemen kan omzeilen zoals verspreid via e-mail en andere kanalen.

Bovendien vergemakkelijkt AI het overnemen van accounts door het testen van gestolen inloggegevens te automatiseren of via bots voor het overnemen van e-mailaccounts (EATO). Deze bots opereren discreet omdat ze menselijk gedrag nabootsen tijdens inlogpogingen. Ze vermijden detectie- en CAPTCHA-hindernissen en voorkomen dat lock-outmechanismen worden geactiveerd.

Versterking van de verdediging

Omgekeerd verbetert kunstmatige intelligentie de e-mailbeveiliging op een aantal manieren. Het maakt slimmere manieren mogelijk om e-mails te filteren en afwijkingen te detecteren. Het ondersteunt analyse van gebruikersgedrag en automatisering van bedreigingsreacties. Bovendien wordt het door natuurlijke taalverwerking (NLP) mogelijk om e-mails grondiger te onderzoeken.

Kunstmatige intelligentie maakt het mogelijk om e-mailinhoud te analyseren op potentiële bedreigingen door te kijken naar een reeks factoren die niet beperkt zijn tot identiteiten van bedreigingen of de informatie die wordt verstrekt door bronnen met informatie over bedreigingen. Het voert gedragsanalyses uit om verdachte acties van afzenders en ontvangers van e-mail te detecteren. Bovendien maakt het real-time analyse mogelijk om zero-day-aanvallen en kwetsbaarheden aan te pakken die niet zijn geprofileerd in bronnen van bedreigingsinformatie.

AI kan worden geïntegreerd in verschillende e-mailbeveiligingssystemen, waaronder Secure Email Gateways (SEG), Email Data Protection (EDP) en cloudoplossingen voor e-mailbeveiliging zoals Google Workspace en Microsoft 365. Kunstmatige intelligentie versterkt deze beveiligingssystemen door geavanceerde detectie van bedreigingen en gedragsanalyse toe te voegen. , integratie van bedreigingsinformatie en automatisering van incidentrespons.

Organisaties lijken zeer ontvankelijk te zijn voor het gebruik van AI voor e-mailbeveiliging. Een geavanceerd onderzoek naar dreigingspreventie onthult dat 97 procent van de organisaties die besloten om AI-oplossingen voor e-mailbeveiliging te gebruiken, dit deden omdat hun traditionele verdedigingsmechanismen niet langer betrouwbaar waren. Hun conventionele e-mailbeveiligingstools slaagden er naar verluidt niet in om bedreigingen te detecteren en te voorkomen. Ze geloven dat AI de e-mailbeveiliging versterkt, maar ze begrijpen dat het niet voldoende is om simpelweg over AI-beveiligingstools te beschikken. Ze weten dat ze ook moeten investeren in cybersecuritytraining om de impact van AI-beveiligingsoplossingen te maximaliseren.

Elkaar compenseren?

Heffen de yin- en yang-effecten van AI op e-mailbeveiliging elkaar op? Helaas is dit niet het geval. Het is eerlijk om te zeggen dat dreigingsactoren een voorsprong hebben als het gaat om het inzetten van AI voor hun misdadige doeleinden. Het is immers gemakkelijker aan te vallen dan te verdedigen, te vernietigen dan te behouden.

Bedreigingsactoren maken zich geen zorgen over valse positieven en negatieven als het gaat om het detecteren van bedreigingen. Ze concentreren zich alleen op het verzenden van zoveel mogelijk aanvallen en verdubbelen wat blijft hangen. Ze kunnen zich op specifieke organisaties richten, maar ze kunnen ook willekeurige aanvallen lanceren. De cyberbeveiligingsafdelingen van organisaties moeten er daarentegen voor zorgen dat ze geen overdreven agressieve e-mailfilters en andere beveiligingsmechanismen implementeren, anders zullen ze uiteindelijk zelfs veilige e-mails of legitieme bijlagen blokkeren. Het is belangrijk om de configuraties van de beveiligingscontroles in evenwicht te brengen om ongemakken te voorkomen of de efficiëntie te verlagen.

Organisaties moeten meer inspanningen leveren op het gebied van beveiliging, zelfs als ze gebruik maken van kunstmatige intelligentie. Ze moeten hun systemen ook regelmatig onderzoeken om er zeker van te zijn dat de detectie-, preventie- en mitigatiefuncties werken zoals bedoeld. Met dreigingsactoren kunnen ze zo extreem agressief zijn als ze willen met hun aanvallen en wachten of een van hun aanvallen erin slaagt de verdediging van hun doelwitten te doorbreken.

Het spreekwoordelijke tweesnijdende zwaard

Kunstmatige intelligentie is een hulpmiddel. Het is noch goed, noch slecht. Het dient tot het plezier van de gebruiker. Om ervoor te zorgen dat AI een voordeel wordt voor e-mailbeveiliging of cybersecurity in het algemeen, is het belangrijk om er goed gebruik van te maken door oplossingen te gebruiken die kunstmatige intelligentie integreren. Het is raadzaam om te wennen aan het gebruik van tools die machine learning, natuurlijke taalverwerking, gedragsanalyse, contextuele analyse en andere AI-technologieën omvatten.

Bovendien is het van cruciaal belang om AI te koppelen aan best practices op het gebied van beveiliging, zoals het gebruik van sterke unieke wachtwoorden en multi-factor authenticatie, de inzet van systemen ter voorkoming van gegevensverlies, de implementatie van gerenommeerde e-mailfiltersystemen en regelmatige of voortdurende beveiligingsmonitoring. Het is ook een must om adequate cyberbeveiligingstrainingen voor werknemers te bieden, zodat ze optimaal kunnen profiteren van AI-beveiligingsoplossingen. Nogmaals, AI is een hulpmiddel en is slechts zo goed als de manier waarop de gebruiker het gebruikt.

Afbeelding: Unsplash

spot_img

Laatste intelligentie

spot_img