Logo Zephyrnet

AWS CISO: presta attenzione al modo in cui l'intelligenza artificiale utilizza i tuoi dati

Data:

Le aziende stanno adottando sempre più l’intelligenza artificiale generativa per automatizzare i processi IT, rilevare minacce alla sicurezza e assumere il controllo delle funzioni di prima linea del servizio clienti. UN Sondaggio IBM nel 2023 ha scoperto che il 42% delle grandi imprese utilizzava attivamente l’intelligenza artificiale e un altro 40% la esplorava o sperimentava.

Nell’inevitabile intersezione tra AI e cloud, le aziende devono pensare a come proteggere gli strumenti AI nel cloud. Una persona che ci ha pensato molto è Chris Betz, che è diventato il CISO di Amazon Web Services lo scorso agosto.

Prima di AWS, Betz è stato vicepresidente esecutivo e CISO di Capital One. Betz ha anche lavorato come vicepresidente senior e responsabile della sicurezza presso Lumen Technologies e in ruoli di sicurezza presso Apple, Microsoft e CBS.

Dark Reading ha recentemente parlato con Betz del sicurezza dei carichi di lavoro AI nel cloud. Segue una versione modificata di quella conversazione.

Dark Reading: quali sono alcune delle grandi sfide legate alla protezione dei carichi di lavoro AI nel cloud?

Chris Betz: Quando parlo con molti dei nostri clienti dell'intelligenza artificiale generativa, le conversazioni spesso iniziano con: "Ho questi dati davvero sensibili e sto cercando di offrire una funzionalità ai miei clienti. Come posso farlo in modo sicuro e protetto?” Apprezzo molto quella conversazione perché è così importante che i nostri clienti si concentrino sul risultato che stanno cercando di ottenere.

Lettura oscura: cosa preoccupa maggiormente i clienti?

Betz: La conversazione deve iniziare con il concetto che “i tuoi dati sono i tuoi dati”. Abbiamo un grande vantaggio nel fatto che posso basarmi su un'infrastruttura IT che fa davvero un ottimo lavoro nel mantenere i dati dove si trovano. Quindi il primo consiglio che do è: Comprendi dove sono i tuoi dati. Come viene protetto? Come viene utilizzato nel modello di intelligenza artificiale generativa?

La seconda cosa di cui parliamo è che le interazioni con un modello di intelligenza artificiale generativa spesso utilizzano alcuni dei dati più sensibili dei loro clienti. Quando chiedi a un modello di intelligenza artificiale generativa informazioni su una transazione specifica, utilizzerai le informazioni sulle persone coinvolte in quella transazione.

Lettura oscura: le aziende sono preoccupate sia per ciò che l'intelligenza artificiale fa con i dati aziendali interni sia con i dati dei clienti?

Betz: I clienti desiderano maggiormente utilizzare l'intelligenza artificiale generativa nelle loro interazioni con i propri clienti e nell'estrazione e sfruttare l'enorme quantità di dati che hanno internamente e far sì che funzioni sia per i dipendenti interni che per i loro clienti. È così importante per le aziende gestire questi dati incredibilmente sensibili in modo sicuro perché sono la linfa vitale delle loro attività.

Le aziende devono pensare a dove si trovano i loro dati e a come vengono protetti quando forniscono suggerimenti all'intelligenza artificiale e quando ricevono risposte.

Dark Reading: la qualità delle risposte e la sicurezza dei dati sono correlate?

Betz: Gli utenti dell'intelligenza artificiale devono sempre pensare se stanno ottenendo risposte di qualità. Il motivo della sicurezza è che le persone si fidino dei propri sistemi informatici. Se stai mettendo insieme questo sistema complesso che utilizza un modello di intelligenza artificiale generativa per fornire qualcosa al cliente, hai bisogno che il cliente abbia fiducia che l'intelligenza artificiale gli stia fornendo le informazioni giuste su cui agire e che stia proteggendo le sue informazioni.

Lettura oscura: esistono modalità specifiche che AWS può condividere su come protegge dagli attacchi all'intelligenza artificiale nel cloud? Penso all'iniezione immediata, agli attacchi di avvelenamento, agli attacchi avversari, quel genere di cose.

Betz: Con solide basi già in atto, AWS era ben preparata per affrontare la sfida poiché lavoriamo con l'intelligenza artificiale da anni. Disponiamo di un gran numero di soluzioni IA interne e di una serie di servizi che offriamo direttamente ai nostri clienti e la sicurezza è stata una considerazione importante nel modo in cui sviluppiamo queste soluzioni. È ciò che chiedono i nostri clienti ed è ciò che si aspettano.

Essendo uno dei fornitori di servizi cloud su larga scala, disponiamo di un'ampia visibilità sull'evoluzione delle esigenze di sicurezza in tutto il mondo. L'intelligence sulle minacce che acquisiamo viene aggregata e utilizzata per sviluppare informazioni utili da utilizzare all'interno di strumenti e servizi dei clienti come Guardia. Inoltre, la nostra intelligence sulle minacce viene utilizzata per generare azioni di sicurezza automatizzate per conto dei clienti per mantenere i loro dati al sicuro.

Lettura oscura: abbiamo sentito molto parlare di fornitori di sicurezza informatica che utilizzano l'intelligenza artificiale e l'apprendimento automatico per rilevare le minacce cercando comportamenti insoliti sui loro sistemi. In quali altri modi le aziende utilizzano l’intelligenza artificiale per proteggersi?

Betz: Ho visto i clienti fare cose straordinarie con l'intelligenza artificiale generativa. Li abbiamo visti sfruttare CodeWhisperer [il generatore di codice basato sull'intelligenza artificiale di AWS] per prototipare e sviluppare rapidamente tecnologie. Ho visto team utilizzare CodeWhisperer per aiutarsi creare codice sicuro e garantire che vengano colmate le lacune nel codice.

Abbiamo anche creato soluzioni di intelligenza artificiale generativa in contatto con alcuni dei nostri sistemi di sicurezza interni. Come puoi immaginare, molti team di sicurezza gestiscono enormi quantità di informazioni. L'intelligenza artificiale generativa consente una sintesi di tali dati per renderli molto utilizzabili sia dai costruttori che dai team di sicurezza per capire cosa sta succedendo nei sistemi, fare domande migliori e mettere insieme i dati.

Quando ho iniziato a pensare a carenza di talenti nel campo della sicurezza informatica, l'intelligenza artificiale generativa oggi non solo contribuisce a migliorare la velocità di sviluppo del software e a migliorare la sicurezza della codifica, ma aiuta anche ad aggregare i dati. Continuerà ad aiutarci perché amplifica le nostre capacità umane. L’intelligenza artificiale ci aiuta a riunire le informazioni per risolvere problemi complessi e aiuta a portare i dati agli ingegneri e agli analisti della sicurezza in modo che possano iniziare a porre domande migliori.

Lettura oscura: vedi qualche minaccia alla sicurezza specifica per l'intelligenza artificiale e il cloud?

Betz: Ho trascorso molto tempo con i ricercatori della sicurezza esaminando gli attacchi di intelligenza artificiale generativa all'avanguardia e il modo in cui gli aggressori li guardano. Ci sono due classi di cose a cui penso in questo spazio. La prima è che vediamo attori malintenzionati che iniziano a utilizzare l’intelligenza artificiale generativa per ottenere più velocemente e migliorare ciò che già fanno. I contenuti di ingegneria sociale ne sono un esempio.

Gli aggressori utilizzano anche la tecnologia AI per scrivere codice più velocemente. È molto simile a dove si trova la difesa. Parte del potere di questa tecnologia è che rende una classe di attività più semplice, e questo è vero per gli aggressori, ma è vero anche per i difensori.

L'altra area che vedo i ricercatori iniziano a guardare di più è il fatto che questi modelli di intelligenza artificiale generativa sono codice. Come altri codici, sono suscettibili di avere punti deboli. È importante capire come proteggerli e assicurarci che esistano in un ambiente dotato di difese.

spot_img

L'ultima intelligenza

spot_img