Zephyrnet-logo

De impact van AI op cyberbeveiliging – DATAVERSITY

Datum:

Kunstmatige intelligentie heeft veel media-aandacht getrokken voor allerlei zaken, van het innemen van banen van mensen tot het verspreiden van desinformatie en het schenden van auteursrechten, maar de impact van AI op cyberveiligheid is misschien wel het meest urgente probleem.

De impact van AI op beveiligingsteams is voorspelbaar tweesnijdend. Wanneer het op de juiste manier wordt toegepast, kan het een krachtige krachtvermenigvuldiger zijn voor cyberbeveiligingsprofessionals, door middel van bijvoorbeeld het verwerken van grote hoeveelheden gegevens op computersnelheid, het vinden van verbindingen tussen afgelegen datapunten, het ontdekken van patronen, het detecteren van aanvallen en het voorspellen van de voortgang van aanvallen. Maar zoals beveiligingsprofessionals heel goed weten, wordt AI niet altijd op de juiste manier toegepast. Het intensiveert de toch al imposante reeks cyberbedreigingen, van identiteitscompromis en phishing tot ransomware en supply chain-aanvallen.

CISO's en beveiligingsteams moeten zowel de voordelen als de risico's van AI begrijpen, wat een substantiële herbalancering van vaardigheden vereist. Beveiligingsingenieurs moeten bijvoorbeeld de basisprincipes van machine learning, modelkwaliteit en vooroordelen, betrouwbaarheidsniveaus en prestatiestatistieken begrijpen. Data wetenschappers moeten de basisprincipes van cyberbeveiliging, aanvalspatronen en risicomodellering leren om effectief bij te dragen aan hybride teams.

AI-modellen hebben een goede training nodig om cyberbeveiliging te ondersteunen

De taak om de proliferatie van AI-aangedreven bedreigingen aan te pakken, vergroot de uitdagingen voor CISO’s en toch al overwerkte beveiligingsteams, die niet alleen te maken krijgen met nieuwe geavanceerde phishing-campagnes die zijn opgezet door een groot taalmodel (LLM) zoals ChatGPT, maar moeten zich nog steeds zorgen maken over een niet-gepatchte server in de DMZ die een grotere bedreiging zou kunnen vormen.

AI kan teams daarentegen veel tijd en moeite besparen bij het beoordelen van risico's en het detecteren van bedreigingen. Het kan ook helpen bij het reageren – hoewel dat zorgvuldig moet gebeuren. Een AI-model kan analisten meekijken om te leren hoe ze incidenten beoordelen, en deze taken vervolgens zelf uitvoeren of zaken prioriteren voor menselijke beoordeling. Maar teams moeten er zeker van zijn dat de juiste mensen de AI-instructie geven.

Jaren geleden heb ik bijvoorbeeld een experiment uitgevoerd waarbij ik 10 analisten van verschillende vaardigheidsniveaus 100 gevallen van vermoedelijke data-exfiltratie liet beoordelen. Twee senior analisten identificeerden alle positieve en negatieve punten correct, drie minder ervaren analisten hadden bijna alle zaken fout, en de overige vijf kregen willekeurige resultaten. Hoe goed een AI-model ook is, het zou nutteloos zijn als het door zo’n team zou worden getraind.

AI is als een krachtige auto: het kan wonderen doen in de handen van een ervaren bestuurder of veel schade aanrichten in de handen van een onervaren bestuurder. Dat is een gebied waarop het tekort aan vaardigheden de cyberveiligheidsimpact van AI kan beïnvloeden.

Hoe kunnen CTO's een AI-oplossing kiezen?

Gezien de hype rond AI kunnen organisaties in de verleiding komen om de technologie overhaast te adopteren. Maar naast het goed trainen van AI, zijn er ook vragen die CTO’s moeten beantwoorden, te beginnen met geschiktheidskwesties:

  • Past AI in het ecosysteem van de organisatie? Dit omvat het platform, externe componenten zoals een database en zoekmachine, gratis en open-source software en licenties, en ook de beveiliging en certificeringen, back-up en failover van de organisatie. 
  • Schaalt AI zich aan de grootte van de onderneming aan?
  • Welke vaardigheden zijn vereist voor het beveiligingsteam om AI te onderhouden en te bedienen?

CTO's moeten ook vragen specifiek voor een AI-oplossing beantwoorden: 

  • Welke van de geclaimde functies van een specifiek AI-product komen overeen met uw bedrijfsdoelstellingen?
  • Kan dezelfde functionaliteit worden bereikt met bestaande tools?
  • Detecteert de oplossing daadwerkelijk bedreigingen?

Die laatste vraag kan moeilijk te beantwoorden zijn, omdat kwaadwillige cyberbeveiligingsgebeurtenissen op minuscule schaal plaatsvinden vergeleken met legitieme activiteiten. In een beperkte proof-of-concept-studie met behulp van live data kan een AI-tool niets detecteren als er niets is. Leveranciers maken vaak gebruik van synthetische data of Red Team-aanvallen om de capaciteiten van een AI aan te tonen, maar de vraag blijft of deze daadwerkelijke detectiecapaciteit aantoont of eenvoudigweg de veronderstelling valideert waaronder de indicatoren zijn gegenereerd.

Het is moeilijk om te bepalen waarom een ​​AI denkt dat iets een aanval was, omdat AI-algoritmen in wezen zwarte dozen zijn, die nog steeds niet kunnen uitleggen hoe ze tot een bepaalde conclusie zijn gekomen – zoals blijkt uit DARPA’s Verklaarbare AI (XAI) programma.

Het beperken van de risico’s van AI

Een AI-oplossing is slechts zo goed als de gegevens waarmee deze werkt. Om ethisch gedrag te garanderen moeten AI-modellen worden getraind op ethische gegevens, en niet op de grootschalige inzameling van afval op het World Wide Web. En elke datawetenschapper weet dat het produceren van een evenwichtige, onbevooroordeelde, schone dataset om een ​​model te trainen een moeilijke, vervelende en weinig glamoureuze taak is. 

Hierdoor kunnen AI-modellen, inclusief LLM’s, uiteindelijk worden beheerd op een manier die vergelijkbaar is met de manier waarop ze de cyberbeveiliging het beste zouden dienen – als gespecialiseerde modellen (in tegenstelling tot “alwetende” modellen voor algemene doeleinden) die specifieke domeinen bedienen en zijn getraind op het gebied van cyberveiligheid. gegevens samengesteld door deskundigen op dit gebied. 

Proberen om AI te censureren als reactie op de verontwaardiging in de media van dit moment zal het probleem niet oplossen. Alleen hard werken aan het creëren van betrouwbare datasets kan dat bewerkstelligen. Totdat AI-bedrijven – en de durfkapitaalbedrijven die hen steunen – deze aanpak accepteren als de enige manier om respectabele inhoud te leveren, is het 'garbage in/garbage out'. 

Moet de ontwikkeling van AI meer gereguleerd worden?

De ontwikkeling van AI heeft veel opgeleverd legitieme zorgen over alles, van deepfakes en stemklonen tot geavanceerde phishing/vishing/smishing, killer-robots en zelfs de mogelijkheid van een AI apocalyps. Eliezer Yudkowsky, een van de meest gerespecteerde namen op het gebied van kunstmatige algemene intelligentie (AGI), heeft onlangs een oproep gedaan om “sluit het allemaal af”, zeggen dat een voorgesteld moratorium van zes maanden niet genoeg was.

Maar je kunt de ontwikkeling van nieuwe technologieën niet tegenhouden, een feit dat al sinds de tijd van alchemisten in de oudheid duidelijk is geworden. Wat kan er vanuit praktisch oogpunt worden gedaan om te voorkomen dat AI uit de hand loopt en om het risico van een door AI veroorzaakte uitsterving te beperken? Het antwoord is dat veel van dezelfde sets controles worden gebruikt op andere gebieden die potentieel voor bewapening hebben: 

  • Transparant onderzoek. Open-source AI-ontwikkeling stimuleert niet alleen innovatie en democratiseert de toegang, maar heeft ook veel veiligheidsvoordelen, van het opsporen van beveiligingsfouten en gevaarlijke ontwikkelingslijnen tot het creëren van verdediging tegen mogelijk misbruik. Big Tech ondersteunt tot nu toe open source-inspanningen, maar dat zou kunnen veranderen als de concurrentie toeneemt. Mogelijk zijn er wetgevende maatregelen nodig om de toegang tot open source te behouden.
  • Bevat experimenten. Alle experimenten met voldoende geavanceerde AI moeten in een sandbox worden geplaatst, waarbij de veiligheids- en beveiligingsprocedures strikt worden gehandhaafd. Dit zijn geen onfeilbare maatregelen, maar kunnen het verschil maken tussen een lokale verstoring en een mondiale catastrofe.
  • Kill-schakelaars. Net als tegengiffen en vaccins moeten tegenmaatregelen tegen op hol geslagen of destructieve AI-varianten een integraal onderdeel van het ontwikkelingsproces zijn. Zelfs makers van ransomware hebben een kill-schakelaar ingebouwd. 
  • Regel hoe het wordt gebruikt. AI is een technologie die kan worden toegepast voor het welzijn van de mensheid of kan worden misbruikt met desastreuze gevolgen. Het reguleren van de toepassingen ervan is een taak voor wereldregeringen, en de urgentie is veel groter dan de noodzaak om de volgende versie van ChatGPT te censureren. De EU AI-wet is een goed geformuleerde, beknopte basis die gericht is op het voorkomen van misbruik zonder innovatie te belemmeren. De VS AI Bill van rechten en het recente Executive Order on AI zijn minder specifiek en lijken meer gericht te zijn op politieke correctheid dan op de kwesties van de juiste modelontwikkeling, training en inperking. Deze maatregelen zijn echter nog maar een begin. 

Conclusie

AI komt op het gebied van cyberbeveiliging, of CISO's dat nu willen of niet, en zal zowel substantiële voordelen als risico's met zich meebrengen op het gebied van cyberbeveiliging, vooral met de uiteindelijke komst van AI. post-kwantumcryptografie. Op zijn minst moeten CISO's de tijd investeren om de voordelen van door AI gehypte tools en de bedreigingen van AI-gestuurde aanvallen te begrijpen. Of ze geld investeren in AI hangt grotendeels af van de tastbare voordelen van AI-beveiligingsproducten, de gepubliceerde gevolgen van AI-aanvallen en, tot op zekere hoogte, hun persoonlijke ervaring met ChatGPT. 

De uitdaging waarmee CISO’s worden geconfronteerd, is hoe ze AI effectief en verantwoord kunnen implementeren.

spot_img

Laatste intelligentie

spot_img