Zephyrnet-logo

AWS CISO: let op hoe AI uw gegevens gebruikt

Datum:

Bedrijven maken steeds vaker gebruik van generatieve AI om IT-processen te automatiseren, beveiligingsbedreigingen te detecteren en eerstelijnsfuncties van de klantenservice over te nemen. Een IBM-onderzoek in 2023 ontdekte dat 42% van de grote ondernemingen AI actief gebruikte, en dat nog eens 40% AI aan het verkennen of experimenteren was.

Op het onvermijdelijke kruispunt van AI en de cloud moeten bedrijven nadenken over hoe ze AI-tools in de cloud kunnen beveiligen. Iemand die hier veel over heeft nagedacht is Chris Betz, die afgelopen augustus CISO werd bij Amazon Web Services.

Vóór AWS was Betz executive vice-president en CISO van Capital One. Betz werkte ook als senior vice-president en chief security officer bij Lumen Technologies en in beveiligingsfuncties bij Apple, Microsoft en CBS.

Dark Reading sprak onlangs met Betz over de beveiliging van AI-workloads in de cloud. Een bewerkte versie van dat gesprek volgt.

Dark Reading: Wat zijn enkele van de grote uitdagingen bij het beveiligen van AI-workloads in de cloud?

Chris Betz: Als ik met veel van onze klanten over generatieve AI praat, beginnen die gesprekken vaak met: “Ik heb hele gevoelige gegevens en ik wil mijn klanten een mogelijkheid bieden. Hoe doe ik dat op een veilige manier?” Ik waardeer dat gesprek enorm omdat het zo belangrijk is dat onze klanten zich focussen op het resultaat dat ze proberen te bereiken.

Dark Reading: waar maken klanten zich het meest zorgen over?

Betz: Het gesprek moet beginnen met het concept dat ‘uw gegevens uw gegevens zijn’. We hebben het grote voordeel dat ik bovenop een IT-infrastructuur mag bouwen die de gegevens heel goed op de plek houdt waar ze zijn. Het eerste advies dat ik geef is dus: begrijp waar uw gegevens zich bevinden. Hoe wordt het beschermd? Hoe wordt het gebruikt in het generatieve AI-model?

Het tweede waar we het over hebben is dat de interacties met een generatief AI-model vaak gebruik maken van enkele van de meest gevoelige gegevens van hun klanten. Wanneer je een generatief AI-model naar een specifieke transactie vraagt, gebruik je informatie over de mensen die bij die transactie betrokken zijn.

Dark Reading: Maken bedrijven zich zorgen over wat de AI doet met hun interne bedrijfsgegevens en met klantgegevens?

Betz: De klanten willen het liefst generatieve AI gebruiken in hun interacties met hun klanten en bij het delven en profiteren van de enorme hoeveelheid gegevens die ze intern hebben en die zowel voor interne werknemers als voor hun klanten laten werken. Het is zo belangrijk voor de bedrijven dat ze die ongelooflijk gevoelige gegevens op een veilige manier beheren, omdat dit de levensader van hun bedrijf is.

Bedrijven moeten nadenken over waar hun gegevens zich bevinden en hoe deze worden beschermd wanneer ze de AI-aanwijzingen geven en wanneer ze reacties terugkrijgen.

Dark Reading: Houden de kwaliteit van de reacties en de veiligheid van de gegevens verband met elkaar?

Betz: AI-gebruikers moeten altijd nadenken of ze kwaliteitsvolle reacties krijgen. De reden voor beveiliging is dat mensen hun computersystemen vertrouwen. Als je dit complexe systeem in elkaar zet dat een generatief AI-model gebruikt om iets aan de klant te leveren, moet de klant erop vertrouwen dat de AI hem de juiste informatie geeft om op te reageren en dat hij zijn informatie beschermt.

Dark Reading: Zijn er specifieke manieren waarop AWS kan vertellen hoe het beschermt tegen aanvallen op AI in de cloud? Ik denk aan snelle injecties, vergiftigingsaanvallen, vijandige aanvallen, dat soort dingen.

Betz: Omdat er al een sterke basis aanwezig was, was AWS goed voorbereid om de uitdaging aan te gaan, aangezien we al jaren met AI werken. We hebben een groot aantal interne AI-oplossingen en een aantal diensten die we rechtstreeks aan onze klanten aanbieden, en beveiliging is een belangrijke overweging geweest bij de manier waarop we deze oplossingen ontwikkelen. Dat is waar onze klanten naar vragen en wat ze verwachten.

Als een van de grootste cloudproviders hebben we een breed inzicht in de veranderende beveiligingsbehoeften over de hele wereld. De dreigingsinformatie die we verzamelen, wordt samengevoegd en gebruikt om bruikbare inzichten te ontwikkelen die worden gebruikt in klanttools en -diensten zoals Wachtdienst. Daarnaast wordt onze dreigingsinformatie gebruikt om namens klanten geautomatiseerde beveiligingsacties te genereren om hun gegevens veilig te houden.

Dark Reading: We hebben veel gehoord over leveranciers van cyberbeveiliging die AI en machine learning gebruiken om bedreigingen te detecteren door te zoeken naar ongewoon gedrag op hun systemen. Op welke andere manieren gebruiken bedrijven AI om zichzelf te beveiligen?

Betz: Ik heb klanten fantastische dingen zien doen met generatieve AI. We hebben gezien dat ze gebruik maakten van CodeWhisperer [de AI-aangedreven codegenerator van AWS] om snel technologieën te prototypen en te ontwikkelen. Ik heb teams CodeWhisperer zien gebruiken om hen te helpen veilige code bouwen en ervoor zorgen dat we gaten in de code aanpakken.

We hebben ook generatieve AI-oplossingen gebouwd die in contact staan ​​met enkele van onze interne beveiligingssystemen. Zoals u zich kunt voorstellen, hebben veel beveiligingsteams te maken met enorme hoeveelheden informatie. Generatieve AI maakt een synthese van die gegevens mogelijk, zodat deze zeer bruikbaar zijn voor zowel bouwers als beveiligingsteams om te begrijpen wat er in de systemen gebeurt, betere vragen te stellen en die gegevens samen te brengen.

Toen ik begon na te denken over de tekort aan talent op het gebied van cyberbeveiligingTegenwoordig draagt ​​generatieve AI niet alleen bij aan het verbeteren van de snelheid van softwareontwikkeling en het verbeteren van veilige codering, maar helpt het ook bij het aggregeren van gegevens. Het zal ons blijven helpen omdat het onze menselijke vermogens versterkt. AI helpt ons informatie samen te brengen om complexe problemen op te lossen en helpt de gegevens naar de beveiligingsingenieurs en analisten te brengen, zodat zij betere vragen kunnen gaan stellen.

Dark Reading: Ziet u beveiligingsbedreigingen die specifiek zijn voor AI en de cloud?

Betz: Ik heb veel tijd met beveiligingsonderzoekers doorgebracht om te kijken naar geavanceerde generatieve AI-aanvallen en hoe aanvallers daar tegenaan kijken. Er zijn twee soorten dingen waar ik in deze ruimte aan denk. De eerste klasse is dat we zien dat kwaadwillende actoren generatieve AI beginnen te gebruiken om sneller en beter te worden in wat ze al doen. Social engineering-inhoud is hiervan een voorbeeld.

Aanvallers gebruiken ook AI-technologie om sneller code te schrijven. Dat lijkt erg op waar de verdediging zich bevindt. Een deel van de kracht van deze technologie is dat het een reeks activiteiten eenvoudiger maakt, en dat geldt voor aanvallers, maar dat geldt ook in hoge mate voor verdedigers.

Het andere gebied waar ik zie dat onderzoekers meer naar gaan kijken, is het feit dat deze generatieve AI-modellen code zijn. Net als andere code zijn ze gevoelig voor zwakke punten. Het is belangrijk dat we begrijpen hoe we ze kunnen beveiligen en ervoor kunnen zorgen dat ze bestaan ​​in een omgeving met verdedigingsmechanismen.

spot_img

Laatste intelligentie

spot_img