Zephyrnet-logo

Voorbereiding op de volgende cyberbeveiligingsepidemie: deepfakes

Datum:

In het licht van de snel voortschrijdende deepfake-technologie en de toenemende afhankelijkheid van virtuele samenwerkingstools als gevolg van post-COVID-werkafspraken, moeten organisaties voorbereid zijn op kwaadwillende actoren die steeds geavanceerder worden in hun imitatiepogingen. Wat in 2021 een slim geschreven phishing-e-mail van een e-mailaccount op C-niveau was, zou in 2022 en daarna een goed gemaakte video- of spraakopname kunnen worden waarin wordt geprobeerd dezelfde gevoelige informatie en bronnen te verzamelen.

Deepfakes zijn afbeeldingen en video's die zijn gemaakt met computers en machine learning-software om ze echt te laten lijken, ook al zijn ze dat niet. De afgelopen jaren zijn er meerdere spraakmakende deepfake-aanvallen resulterend in gestolen geld. Onlangs werd een in Hong Kong gevestigde bank gedupeerd door een kunstmatige intelligentie-aangedreven "deep voice" -aanval die de stem van een vertrouwde regisseur kloonde die op zoek was naar een overdracht van $ 35 miljoen. Helaas komen deze gevallen steeds vaker voor. Nu cybercriminelen zich voortdurend richten op bedrijfsorganisaties, is het nu belangrijker om alle inhoud te verifiëren, ondanks hoe valide ze op het eerste gezicht misschien lijken.

De gevaren van Deepfake in het nieuwe hybride personeelsbestand
Cybercriminelen imiteren al tientallen jaren zakelijke e-mails door middel van dagelijkse phishing-aanvallen. Maar nu zijn cybercriminelen een stap verder gegaan met spraak- en videobedrog. Een klassiek deepfake-voorbeeld is wanneer een invloedrijke persoon om een ​​soort geldelijke donatie vraagt. Een leidinggevende kan schijnbaar een voicemail via e-mail sturen naar een werknemer die om een ​​donatie aan haar liefdadigheidsinstelling vraagt, alleen om erachter te komen dat de opname nep was en het geld op een offshore-account is gestort. Het is gemakkelijk voor de medewerker om direct te reageren in plaats van te controleren of het waar is.

Als je baas je iets vraagt, voel je je meestal onder druk gezet om te gehoorzamen. En in het tijdperk van hybride werk is het moeilijker om deze interacties te bevestigen, omdat veel organisaties vertrouwen op minder persoonlijke communicatie. De aanvalsoppervlakken voor digitale communicatie schieten omhoog en de misleidingstechnologie houdt gelijke tred - waardoor het een zeer gevaarlijke combinatie is en rijp voor deepfake-aanvallen.

Hoe AI Deepfake-bedreigingen kan bestrijden
Gelukkig heeft AI aanzienlijke vooruitgang geboekt bij het analyseren van video en audio. YouTube genereert bijvoorbeeld automatisch ondertitels van audio en heeft tekstverwerking als een AI-systeem dat scant op trefwoorden en inhoud categoriseert. Hetzelfde type technologie kan worden gebruikt om phishing-video's te ontcijferen. Als een CEO werknemers vraagt ​​om te doneren aan zijn goede doel, kan een AI-cyberbeveiligingssysteem de tekst converteren en analyseren en herkennen of het verzoek om geld is en of de betaling via Zelle moet worden verzonden in plaats van een liefdadigheidswebsite.

Een AI-systeem zou deze gegevens ook kunnen abstraheren en invoeren in een wettelijk nalevingskader voor goedgekeurde betaling, wat een mens ertoe zou aanzetten de betaling goed te keuren of in te grijpen. AI kan een eerste verdedigingslaag zijn en kan onregelmatigheden sneller signaleren dan het menselijk oog. Een AI-systeem kan het audio-/videobericht bijvoorbeeld ook snel vergelijken met bestaande bekende originele beelden om ervoor te zorgen dat het bericht niet wordt gegenereerd uit een aantal gemanipuleerd en aan elkaar gesplitste clips, waardoor een tijdrovende taak voor een mens wordt geëlimineerd. Er zijn meer vorderingen in dit type detectie en verschillende AI-systemen zijn in staat om video en audio voor context te verwerken en kunnen deze informatie aan een mens doorgeven of kunnen automatisch worden gedetecteerd.

Authenticiteit bestrijdt deepfakes
Het wordt voor organisaties steeds belangrijker om handmatig of automatisch het certificaat van echtheid te bepalen voor video en gezamenlijke inhoud. Authenticatiemethoden, waaronder blockchain, kunnen een sleutelfactor zijn bij het bestrijden van deepfake-aanvallen. Blockchain kan in verschillende toepassingen worden gebruikt, van legaal tot stemmen om identiteit te verifiëren. Blockchain kan op verschillende manieren worden gebruikt. Het kan worden gebruikt om een ​​gebruiker te vragen zijn identiteit te bewijzen voordat hij inhoud onder zijn naam kan verspreiden. Blockchain-applicaties kunnen ook worden gebruikt om te controleren of inhoud in een bepaald bestand is vervalst of gemanipuleerd vanuit de originele versie.

Of het nu gebaseerd is op blockchain of andere authenticatiemethoden, authenticatieschema's kunnen worden geïmplementeerd om de legitimiteit van een audio- of videobestand te bepalen. Decentralisatie van authenticatie is van cruciaal belang, dus één entiteit heeft niet de volledige bevoegdheid om inhoud te valideren. Naast blockchain is het gebruik van multifactor-authenticatie of handtekeningen haalbare manieren om de beveiliging rond authenticatie te vergroten.

Hoewel organisaties blockchain en AI kunnen gebruiken om deepfakes te bestrijden, kan een van de belangrijkste methoden een training voor cyberbeveiligingsbewustzijn zijn. Steeds meer organisaties trainen hun medewerkers om zichzelf en de organisatie beter te beschermen tegen allerlei cyberaanvallen. Organisaties moeten een training voor cyberbeveiligingsbewustzijn implementeren die mensen leert te verifiëren of communicatie authentiek is. Nu er nieuwe deepfake-cyberaanvallen opduiken, is bewustmakingstraining een belangrijke stap op korte termijn om een ​​verscheidenheid aan aanvallen te bestrijden.

Bron: https://www.darkreading.com/operations/preparing-for-the-next-cybersecurity-epidemic-deepfakes

spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?