Logo Zephyrnet

Perché lo sviluppo responsabile dell'IA ha bisogno della cooperazione in materia di sicurezza

Data:


Abbiamo scritto un documento di ricerca politica che identifica quattro strategie che possono essere utilizzate oggi per migliorare la probabilità di una cooperazione industriale a lungo termine sulle norme di sicurezza nell'IA: comunicazione di rischi e benefici, collaborazione tecnica, maggiore trasparenza e standard incentivanti. La nostra analisi mostra che la cooperazione del settore in materia di sicurezza sarà determinante per garantire che i sistemi di intelligenza artificiale siano sicuri e vantaggiosi, ma le pressioni concorrenziali potrebbero portare a un problema di azione collettiva, causando potenzialmente un sottoinvestimento delle aziende di intelligenza artificiale nella sicurezza. Ci auguriamo che queste strategie incoraggino una maggiore cooperazione sullo sviluppo sicuro dell'IA e portino a migliori risultati globali dell'IA.

Leggi la carta

È importante assicurarsi che sia nell'interesse economico delle aziende costruire e rilasciare sistemi di intelligenza artificiale sicuri, sicuri e socialmente vantaggiosi. Questo è vero anche se pensiamo che le aziende di intelligenza artificiale e i loro dipendenti abbiano un desiderio indipendente di farlo, poiché i sistemi di intelligenza artificiale hanno maggiori probabilità di essere sicuri e vantaggiosi se gli interessi economici delle società di intelligenza artificiale non sono in tensione con il loro desiderio di costruire i loro sistemi in modo responsabile .

Questa affermazione potrebbe sembrare ridondante perché lo sviluppo e l'implementazione di prodotti che non rappresentano un rischio per la società è generalmente nell'interesse economico di un'azienda. La gente non pagherebbe molto per un'auto senza freni funzionanti, per esempio. Ma se più aziende stanno provando a sviluppare un prodotto simile, possono sentire la pressione di lanciarlo sul mercato, con conseguente minor lavoro di sicurezza prima del rilascio.

Tali problemi sorgono generalmente in contesti in cui la regolamentazione esterna è debole o inesistente. Un'adeguata regolamentazione dei beni e dei servizi forniti sul mercato può ridurre i tagli alla sicurezza. Ciò può giovare agli utenti di beni e servizi, nonché al settore stesso; l'intero settore aereo beneficia commercialmente del fatto che i governi di tutto il mondo sono vigili sulla sicurezza, ad esempio, e che quando si verificano incidenti, vengono sempre indagati in dettaglio. I meccanismi regolatori convenzionali possono essere meno efficaci nel trattare l'IA, tuttavia, a causa della velocità con cui la tecnologia si sta sviluppando e delle grandi asimmetrie informative tra sviluppatori e regolatori. Il nostro documento esplora quali fattori potrebbero guidare o smorzare una tale corsa allo spiegamento e suggerisce strategie per migliorare la cooperazione tra gli sviluppatori di intelligenza artificiale. Gli sviluppatori "cooperano" non cessando di competere ma prendendo le opportune precauzioni di sicurezza e hanno maggiori probabilità di farlo se sono sicuri che i loro concorrenti faranno lo stesso.

La necessità di un'azione collettiva in materia di sicurezza

Se le aziende rispondono alle pressioni della concorrenza lanciando una tecnologia sul mercato prima che sia considerata sicura, si troveranno in un problema di azione collettiva. Anche se ogni azienda preferirebbe competere per sviluppare e rilasciare sistemi sicuri, molti credono che non possano permettersi di farlo perché potrebbero essere battuti sul mercato da altre società. Problemi come questo possono essere mitigati da una maggiore cooperazione industriale in materia di sicurezza. Le società di intelligenza artificiale possono lavorare per sviluppare norme e standard del settore che garantiscano che i sistemi siano sviluppati e rilasciati solo se sono sicuri e possono concordare di investire risorse in sicurezza durante lo sviluppo e soddisfare standard adeguati prima del rilascio.

Alcuni scenari ipotetici:

Un'azienda sviluppa un modello di riconoscimento delle immagini con prestazioni molto elevate e ha fretta di implementarlo su larga scala, ma gli ingegneri dell'azienda non hanno ancora valutato adeguatamente le prestazioni del sistema nel mondo reale. L'azienda sa anche che manca di standard di test completi per conoscere la piena "superficie di capacità" del modello. A causa del timore di essere battuta sul mercato dai concorrenti in una particolare nicchia, tuttavia, la società va avanti, scommettendo sul fatto che i loro test interni limitati saranno sufficienti per proteggersi da eventuali guasti importanti del sistema o contraccolpo pubblico.

Un'azienda desidera implementare alcuni software AI semi-autonomi su robot fisici, come i droni. Questo software ha un tasso di fallimento che soddisfa i criteri normativi, ma poiché la società sta correndo per portare la tecnologia sul mercato, sa che la popolare funzione di "interpretabilità" del suo prodotto fornisce spiegazioni fuorvianti che sono intese più per rassicurazioni che per chiarimenti. A causa della limitata esperienza tra le autorità di regolamentazione, questo comportamento scorretto cade attraverso le crepe fino a un incidente catastrofico, così come un comportamento simile da parte di altre società che corrono per implementare sistemi "interpretabili" in modo simile.

Alcuni problemi di azione collettiva sono più risolvibili di altri. In generale, un problema di azione collettiva è più risolvibile se i benefici attesi dalla cooperazione superano i benefici attesi dalla mancata collaborazione. I seguenti fattori correlati aumentano i benefici attesi dalla cooperazione:

Alta fiducia

È più probabile che le aziende cooperino in materia di sicurezza se possono fidarsi del fatto che altre società ricambieranno lavorando verso un simile standard di sicurezza. Tra le altre cose, la fiducia nel fatto che altri svilupperanno l'IA in modo sicuro può essere stabilita aumentando la trasparenza delle risorse investite in sicurezza, impegnandosi pubblicamente a soddisfare un elevato standard di sicurezza e impegnandosi in un lavoro congiunto per trovare parametri di sicurezza accettabili.

Upside condiviso

Le aziende hanno un incentivo più forte a cooperare sulla sicurezza se i benefici reciproci di uno sviluppo sicuro sono più elevati. La prospettiva della cooperazione può essere migliorata mettendo in evidenza i vantaggi derivanti dall'istituzione tempestiva di buone norme di sicurezza, come la prevenzione di incidenti in caso di fallimento e abuso dell'IA e la definizione di standard di sicurezza basati sulla comprensione condivisa dei sistemi di IA emergenti. Sforzi collaborativi come Salone del rischio, che ospita eventi per persone che lavorano in casi di frode, rischio e conformità, ne sono un buon esempio. Questi eventi facilitano discussioni aperte tra partecipanti di diverse società e sembrano essere principalmente motivati ​​dal guadagno condiviso di migliori strategie di mitigazione del rischio.

Bassa esposizione

Ridurre i danni che le aziende si aspettano di sostenere se un'altra società decide di non collaborare alla sicurezza aumenta la probabilità che essi stessi rispettino gli standard di sicurezza. L'esposizione può essere ridotta scoraggiando le violazioni degli standard di sicurezza (ad esempio segnalandoli) o fornendo prove dei potenziali rischi associati ai sistemi che non soddisfano gli standard pertinenti. Quando gli standard devono essere soddisfatti per entrare in un mercato, ad esempio, le aziende hanno poco da perdere se gli altri non soddisfano tali standard. Per rispettare il Direttiva RoHS, i produttori di elettronica hanno dovuto passare alla saldatura senza piombo per vendere i loro prodotti nell'UE. La possibilità che un produttore continui a utilizzare la saldatura al piombo farebbe ben poco per influenzare la cooperazione con gli sforzi di riduzione del piombo, poiché il loro mancato rispetto non sarebbe costoso per gli altri produttori.

Basso vantaggio

Ridurre i vantaggi che le aziende possono aspettarsi di ottenere non cooperando sulla sicurezza dovrebbe aumentare la conformità generale agli standard di sicurezza. Ad esempio, le aziende che producono connettori USB non si aspettano di guadagnare molto dalla deviazione dagli standard dei connettori USB, poiché ciò renderà il loro prodotto incompatibile con la maggior parte dei dispositivi. Quando gli standard sono già stati stabiliti e deviare da essi è più costoso di qualsiasi vantaggio, il vantaggio è basso. Nel contesto dell'intelligenza artificiale, ridurre i costi e le difficoltà di attuazione delle precauzioni di sicurezza contribuirebbe a ridurre al minimo la tentazione di ignorarle. Inoltre, i governi possono promuovere un ambiente normativo in cui è vietata la violazione degli standard di sicurezza di posta in gioco.

Unico inconveniente condiviso

Identificare i modi in cui i sistemi di IA potrebbero fallire se non fossero prese adeguate precauzioni può aumentare la probabilità che le aziende di IA accettino di non sviluppare o rilasciare tali sistemi. Gli svantaggi condivisi incentivano la cooperazione quando i fallimenti sono particolarmente dannosi: specialmente se sono avvertiti da tutto il settore (ad esempio danneggiando la fiducia del pubblico nel settore nel suo insieme). Dopo l'incidente di Three Mile Island, ad esempio, l'industria dell'energia nucleare ha creato e finanziato INPO, un regolatore privato con la capacità di valutare gli impianti e condividere i risultati di tali valutazioni all'interno dell'industria al fine di migliorare la sicurezza operativa.

I problemi di azione collettiva sono suscettibili a spirali negative in cui la perdita di fiducia causa l'interruzione di una delle parti, causando l'interruzione di altre parti. Allo stesso tempo, è anche possibile generare spirali positive in cui lo sviluppo della fiducia induce alcune parti a cooperare, dando luogo ad altre parti che cooperano.

Strategie di cooperazione

Abbiamo trovato quattro strategie che possono essere utilizzate oggi per migliorare la probabilità di cooperazione su norme e standard di sicurezza nell'IA. Questi sono:

1. Promuovere credenze accurate sulle opportunità di cooperazione

Comunicare i rischi per la sicurezza associati all'intelligenza artificiale, dimostrare che è possibile prendere provvedimenti concreti per promuovere la cooperazione in materia di sicurezza e mettere in comune le preoccupazioni sulla sicurezza.

2. Collaborare alla ricerca condivisa e alle sfide ingegneristiche

Impegnarsi in una ricerca interdisciplinare congiunta che promuova la sicurezza e favorisca altrimenti la collaborazione forte (ad esempio, il lavoro che prevede la combinazione di aree di competenza complementari).

3. Aprire più aspetti dello sviluppo dell'IA a una supervisione e un feedback appropriati

Pubblicizzare codici di condotta, aumentare la trasparenza sul processo decisionale relativo alla pubblicazione e, a condizione che vengano affrontati i problemi di sicurezza e PI, aprire i singoli sistemi di intelligenza artificiale a un maggiore controllo.

4. Incentivare l'adesione a elevati standard di sicurezza

Lodate coloro che aderiscono agli standard di sicurezza, rimproverano i fallimenti nel garantire che i sistemi siano sviluppati in modo sicuro e supportano gli incentivi economici, legali o di settore per aderire agli standard di sicurezza.

Pensiamo che i problemi di azione collettiva possano essere la principale fonte di sfide politiche man mano che i sistemi di IA diventano sempre più potenti. Questa analisi si concentra sui ruoli che l'industria può svolgere nella prevenzione di tali problemi, ma prevediamo che anche i meccanismi legali e politici svolgeranno un ruolo importante nella prevenzione e mitigazione di questi problemi. Anticipiamo inoltre che l'identificazione di meccanismi simili per migliorare la cooperazione in materia di sicurezza dell'intelligenza artificiale tra gli Stati e con altri attori non industriali avrà un'importanza crescente negli anni a venire. Vi è una grande incertezza sulle sfide che i futuri sistemi di IA potrebbero rappresentare, ma riteniamo che incoraggiare una maggiore cooperazione sullo sviluppo sicuro dell'IA abbia probabilmente un impatto positivo sui risultati dello sviluppo dell'IA.

Pur riconoscendo l'esistenza di tali sfide, sosteniamo una mappatura più completa delle possibili collaborazioni oltre i confini organizzativi e nazionali, con particolare attenzione alle sfide di ricerca e ingegneria le cui soluzioni potrebbero essere di ampia utilità. Le aree da considerare potrebbero includere la ricerca congiunta sulla verifica formale delle capacità dei sistemi di IA e altri aspetti della sicurezza e protezione dell'IA con ampie applicazioni; vari progetti applicati "AI for good" i cui risultati potrebbero avere applicazioni di ampia portata e ampiamente positive (ad esempio in settori come la sostenibilità e la salute); e lo sviluppo congiunto di contromisure contro le minacce globali legate all'IA come l'uso improprio della generazione di media sintetici online. Per ottenere una maggiore cooperazione in materia di sicurezza, dobbiamo rendere la consapevolezza comune che tale cooperazione è nell'interesse di tutti e che i metodi per ottenerla possono essere identificati, studiati e implementati oggi.

Fonte: https://openai.com/blog/cooperation-on-safety/

spot_img

L'ultima intelligenza

spot_img