Logo Zephyrnet

Il realismo regna sull'intelligenza artificiale in Black Hat e DEF CON

Data:

Si è trattato di un'evoluzione rapida, anche per il settore IT. Nell'edizione del 2022 di Black Hat, i CISO affermavano di non voler sentire le lettere "AI"; all’RSAC 2023, praticamente tutti parlavano di intelligenza artificiale generativa e speculavano sugli enormi cambiamenti che avrebbe segnato per il settore della sicurezza; al Black Hat USA 2023, si parlava ancora sull’intelligenza artificiale generativa, ma con conversazioni incentrate sulla gestione della tecnologia come aiuto per gli operatori umani e sul lavoro entro i limiti dei motori di intelligenza artificiale. Mostra, nel complesso, una svolta molto rapida da una campagna pubblicitaria senza fiato a un realismo più utile.

Il realismo è accolto con favore perché l’intelligenza artificiale generativa sarà assolutamente una caratteristica dei prodotti, dei servizi e delle operazioni di sicurezza informatica nei prossimi anni. Tra le ragioni vere c’è il fatto che anche la carenza di professionisti della sicurezza informatica sarà una caratteristica del settore negli anni a venire. Con l’uso dell’IA generativa focalizzato sull’amplificazione dell’efficacia dei professionisti della sicurezza informatica, piuttosto che sulla sostituzione degli FTE (equivalenti a tempo pieno o dipendenti a tempo pieno), non ho sentito nessuno discutere di come alleviare la carenza di talenti sostituendo gli esseri umani con l’IA generativa. Ciò di cui ho sentito parlare molto è l'uso dell'intelligenza artificiale generativa per rendere ogni professionista della sicurezza informatica più efficace, soprattutto nel rendere gli analisti di livello 1 efficaci quanto gli "analisti di livello 1.5", poiché questi analisti meno esperti sono in grado di fornire più contesto, più certezza, e opzioni più prescrittive per gli analisti di livello superiore mentre spostano gli avvisi lungo la catena

Devo conoscere i limiti

Parte della conversazione su come verrà utilizzata l’intelligenza artificiale generativa è stata il riconoscimento dei limiti della tecnologia. Questi non erano "probabilmente sfuggiremo al futuro mostrato". La matrice", si trattava di conversazioni franche sulle capacità e sugli usi che rappresentano obiettivi legittimi per le aziende che implementano la tecnologia.

Due delle limitazioni di cui ho sentito parlare riguardano qui. Uno ha a che fare con il modo in cui vengono addestrati i modelli, mentre l’altro si concentra su come gli esseri umani rispondono alla tecnologia. Sulla prima questione, c’è stato un grande accordo sul fatto che nessuna implementazione dell’IA può essere migliore dei dati su cui viene addestrata. Oltre a ciò c’è il riconoscimento che la spinta verso set di dati più grandi può scontrarsi direttamente con le preoccupazioni relative alla privacy, alla sicurezza dei dati e alla protezione della proprietà intellettuale. Sento sempre più aziende parlare di "competenza di dominio" in combinazione con l'intelligenza artificiale generativa: limitare l'ambito di un'istanza di intelligenza artificiale a un singolo argomento o area di interesse e assicurarsi che sia addestrata in modo ottimale per i suggerimenti su quell'argomento. Aspettatevi di saperne di più su questo nei prossimi mesi.

La seconda limitazione è chiamata limitazione della “scatola nera”. In parole povere, le persone tendono a non fidarsi della magia e i motori di intelligenza artificiale sono il tipo di magia più profonda per cui la maggior parte dei dirigenti e dei dipendenti. Per promuovere la fiducia nei risultati dell’intelligenza artificiale, sia i dipartimenti di sicurezza che quelli IT dovranno espandere la trasparenza sul modo in cui i modelli vengono addestrati, generati e utilizzati. Ricorda che l’intelligenza artificiale generativa verrà utilizzata principalmente come aiuto ai lavoratori umani. Se questi lavoratori non si fidano delle risposte che ricevono dai suggerimenti, gli aiuti saranno incredibilmente limitati.

Definisci i tuoi termini

C’era un punto su cui era ancora evidente la confusione in entrambe le conferenze: cosa intendeva qualcuno quando diceva “AI”? Nella maggior parte dei casi, le persone parlavano di intelligenza artificiale generativa (o modello linguistico di grandi dimensioni, ovvero LLM) quando discutevano delle possibilità della tecnologia, anche se dicevano semplicemente "AI". Altri, ascoltando le due semplici lettere, avrebbero sottolineato che l’intelligenza artificiale faceva parte del loro prodotto o servizio da anni. La disconnessione ha evidenziato il fatto che sarà fondamentale definire i termini o essere molto specifici quando si parla di intelligenza artificiale per qualche tempo a venire.

Ad esempio, l’intelligenza artificiale utilizzata da anni nei prodotti di sicurezza utilizza modelli molto più piccoli rispetto all’intelligenza artificiale generativa, tende a generare risposte molto più velocemente ed è piuttosto utile per l’automazione. In altre parole, è utile per trovare molto rapidamente la risposta a una domanda molto specifica posta più e più volte. L’intelligenza artificiale generativa, d’altro canto, può rispondere a una serie più ampia di domande utilizzando un modello costruito a partire da enormi set di dati. Tuttavia, non tende a generare costantemente la risposta in modo sufficientemente rapido da renderlo uno strumento eccellente per l'automazione.

Ci sono state molte più conversazioni e ci saranno molti più articoli, ma LLM AI è qui per rimanere un argomento di sicurezza informatica. Preparati per le conversazioni a venire.

spot_img

L'ultima intelligenza

spot_img