Logo Zephyrnet

DARPA lancia un concorso per creare difensori di software AI

Data:

Black Hat In un annuncio a sorpresa al keynote di apertura di Black Hat oggi, DARPA ha svelato quella che chiama AI Cyber ​​Challenge (AIxCC). Si tratta di una competizione di due anni per creare sistemi protettivi di apprendimento automatico in grado di salvaguardare il software e quindi l'infrastruttura critica.

Il concorso, che inizia mercoledì, metterà i team l'uno contro l'altro per costruire modelli in grado di identificare i rischi all'interno del codice, bloccare gli attacchi contro tali vulnerabilità e affrontare questi difetti. Si spera che questi modelli, una volta capaci di proteggere le applicazioni in generale, siano quindi in grado di difendere l'infrastruttura IT a livello software.

Anthropic, OpenAI, Google e Microsoft si sono impegnati a fornire consulenza e software da utilizzare per i partecipanti e la Open Source Security Foundation (OpenSSF.) è anche nella squadra.

Ulteriori dettagli di base, regole e scadenze può essere trovato qui.

"La spinta per questo viene dall'interno di DARPA, e quando ci siamo avvicinati a persone come Anthropic e altri per questo, hanno detto che stavano pensando esattamente la stessa cosa", ha detto il responsabile del programma AIxCC Perri Adams Il registro a Las Vegas oggi. Ha aggiunto che tutto si sta riunendo "in un clima in cui stiamo vedendo una fantastica tecnologia AI".

"Ci sono molte persone che vedono che l'intelligenza artificiale ha un enorme potenziale per proteggere il codice e questa è stata un'opportunità davvero fantastica", ha aggiunto. “Ciò su cui ci concentriamo è cercare di proteggere la più ampia gamma di software possibile. Quindi, stiamo cercando di modellare le sfide sul software generico perché è quello che troviamo nei sistemi di infrastrutture critiche".

menta

Perri Adams, responsabile del programma AIxCC di DARPA, dice ai partecipanti di Black Hat che ci sono milioni sul tavolo

DARPA, il centro nevralgico della ricerca delle forze armate statunitensi, invita coloro che desiderano partecipare a registrarsi, sia per un Open Track autofinanziato che per un Funded track, l'ultimo dei quali accetterà fino a sette piccole imprese selezionate che saranno dato fino a $ 1 milione ciascuno per competere. La registrazione per la partizione finanziata deve essere effettuata entro il 19 settembre, mentre i concorrenti della pista aperta hanno tempo fino al 15 dicembre per iscriversi.

Nella primavera del 2024 le squadre si sfideranno in una serie di prove per determinare l'idoneità alla semifinale, dove le prime 20 squadre si sfideranno alla conferenza DEF CON del prossimo anno. Le prime cinque squadre in quella competizione riceveranno un premio in denaro di $ 2 milioni ciascuna.

L'anno successivo, al DEF CON nel 2025, gli ultimi cinque si sfideranno per un primo premio di 4 milioni di dollari, con 3 milioni di dollari per il secondo posto e 1.5 milioni di dollari per il terzo. Le squadre avranno bisogno di almeno un residente o cittadino permanente degli Stati Uniti nella squadra per poter partecipare.

Sono 18.5 milioni di dollari in totale e 7 milioni di dollari per i piccoli imprenditori.

"Quando le persone sentono sicurezza e intelligenza artificiale, tutte le sinapsi iniziano ad attivarsi, ma questo non si concentra su 'il modello è sicuro', ma 'supponiamo di avere questo fantastico strumento chiamato AI, ora come lo applichiamo a un'ampia quantità di software'”, ci ha detto Omkhar Arasaratnam, general manager di OpenSSF.

"Se sei un ingegnere del software e stai usando zlib sul tuo telefono o in una distribuzione Linux sul tuo desktop, è ancora zlib e dobbiamo garantire che si applichino le stesse proprietà di sicurezza."

Questo approccio è incorporato in AIxCC: salvaguardare il codice ovunque si trovi, o almeno così ci sembra.

Tante scatole nere

L'intelligenza artificiale era un tema ricorrente oggi. Un altro Black Hat relatrice principale, Maria Markstedter, fondatrice di Azeria Labs, specialista in codici di armi, avvertito il futuro, in termini di protezione delle tecnologie di apprendimento automatico, sembrava incerto a causa di due fattori: il desiderio del settore di muoversi velocemente e rompere le cose e la mancanza di dettagli tecnici interni con cui lavorare per i professionisti della sicurezza.

Vale a dire, alcune organizzazioni stanno lanciando i modelli in scenari del mondo reale in un modo che potrebbe mettere a rischio le persone e il modo in cui i modelli vengono addestrati e distribuiti è tenuto segreto o è semplicemente difficile da seguire. Tutto ciò non è una situazione eccezionale per i ricercatori di sicurezza informatica, gli utenti finali e gli amministratori.

"La corsa agli armamenti dell'intelligenza artificiale aziendale è iniziata", ha affermato Markstedter. "In prima linea c'è, ovviamente, Microsoft".

Ha sottolineato che a febbraio, il CEO di Microsoft Satya Nadella si è vantato che la sua società si sarebbe mossa rapidamente in quest'area, e ha aggiunto che il dirigente di Redmond Sam Schillace era persino citato come dire che sarebbe un "errore assolutamente fatale in questo momento preoccuparsi di cose che possono essere risolte in seguito". Chiunque abbia applicato le patch di Windows lo saprà fin troppo bene.

Speriamo che ML non inizi come hanno fatto gli smartphone. Markstedter ha affermato che i primi modelli eseguivano tutto con accesso root, erano pieni di bug critici, avevano ben poco in termini di correzione e non c'era il sandboxing dei dati.

Il cambiamento è arrivato perché gli addetti alla sicurezza potevano smontare i telefoni, fisicamente e dal punto di vista del codice, vedere come funzionavano, trovare difetti e mostrare ai produttori dove avevano bisogno di migliorare il loro gioco. Lo stesso non sarà possibile con i prodotti IA black-box, ha suggerito.

A peggiorare le cose, con i dati di addestramento prelevati dal Web all'ingrosso, i grandi stack di intelligenza artificiale di oggi sono "come un manichino che crede a tutto ciò che leggono su Internet", ha affermato. Inoltre, esistono ricerche che dimostrano che l'avvelenamento dei set di dati di addestramento potrebbe portare a enormi impatti sull'accuratezza e sulle operazioni dei sistemi ML.

"Non sappiamo come potrebbe essere la situazione in questo momento", ha avvertito. “Il problema più grande non è l'esistenza di queste sfide; il nostro problema è che non abbiamo abbastanza persone con le competenze per affrontarli”. ®

spot_img

L'ultima intelligenza

spot_img