Logo Zephyrnet

Scopri come valutare il rischio dei sistemi di intelligenza artificiale | Servizi Web di Amazon

Data:

L’intelligenza artificiale (AI) è un campo in rapida evoluzione con il potenziale per migliorare e trasformare molti aspetti della società. Nel 2023, il ritmo di adozione delle tecnologie di intelligenza artificiale è ulteriormente accelerato con lo sviluppo di potenti modelli di base (FM) e un conseguente progresso nelle capacità di intelligenza artificiale generativa.

In Amazon, abbiamo lanciato numerosi servizi di intelligenza artificiale generativa, come Roccia Amazzonica ed Amazon Code Whisperere hanno reso disponibile una gamma di modelli generativi altamente capaci attraverso JumpStart di Amazon SageMaker. Questi servizi sono progettati per supportare i nostri clienti nello sbloccare le capacità emergenti dell’intelligenza artificiale generativa, tra cui creatività potenziata, creazione di contenuti dinamici e personalizzati e design innovativo. Possono anche consentire ai professionisti dell’intelligenza artificiale di dare un senso al mondo come mai prima d’ora, affrontando le barriere linguistiche, il cambiamento climatico, accelerando le scoperte scientifiche e altro ancora.

Per realizzare il pieno potenziale dell’intelligenza artificiale generativa, tuttavia, è importante riflettere attentamente su eventuali rischi potenziali. Innanzitutto, ciò avvantaggia le parti interessate del sistema di IA promuovendo uno sviluppo e una diffusione responsabili e sicuri e incoraggiando l’adozione di misure proattive per affrontare il potenziale impatto. Di conseguenza, stabilire meccanismi per valutare e gestire il rischio è un processo importante che i professionisti dell’IA devono prendere in considerazione ed è diventato una componente fondamentale di molti standard emergenti del settore dell’IA (ad esempio, ISO 42001, ISO 23894e NIST RMF) e legislativi (come ad es Legge dell'UE sull'IA).

In questo post, discutiamo come valutare il potenziale rischio del tuo sistema di intelligenza artificiale.

Quali sono i diversi livelli di rischio?

Anche se potrebbe essere più semplice iniziare a considerare un modello individuale di machine learning (ML) e i rischi associati isolatamente, è importante considerare i dettagli dell'applicazione specifica di tale modello e il caso d'uso corrispondente come parte di un sistema di intelligenza artificiale completo. . In effetti, è probabile che un tipico sistema di intelligenza artificiale sia basato su più modelli ML diversi che lavorano insieme e un'organizzazione potrebbe cercare di costruire più sistemi di intelligenza artificiale diversi. Di conseguenza, i rischi possono essere valutati per ciascun caso d’uso e a diversi livelli, vale a dire rischio di modello, rischio di sistema di intelligenza artificiale e rischio aziendale.

Il rischio aziendale comprende l’ampio spettro di rischi che un’organizzazione può affrontare, compresi i rischi finanziari, operativi e strategici. Il rischio del sistema di IA si concentra sull’impatto associato all’implementazione e al funzionamento dei sistemi di IA, mentre il rischio del modello di ML riguarda specificamente le vulnerabilità e le incertezze inerenti ai modelli di ML.

In questo post ci concentreremo principalmente sul rischio del sistema AI. Tuttavia, è importante notare che tutti i diversi livelli di gestione del rischio all'interno di un'organizzazione dovrebbero essere considerati e allineati.

Come viene definito il rischio del sistema IA?

La gestione del rischio nel contesto di un sistema di IA può essere un percorso per ridurre al minimo l’effetto dell’incertezza o dei potenziali impatti negativi, fornendo allo stesso tempo opportunità per massimizzare gli impatti positivi. Il rischio in sé non è un danno potenziale ma l’effetto dell’incertezza sugli obiettivi. Secondo il Quadro di gestione del rischio del NIST (NIST RMF), il rischio può essere stimato come una misura moltiplicativa della probabilità che un evento si verifichi in base all'entità delle conseguenze dell'evento corrispondente.

Ci sono due aspetti del rischio: rischio intrinseco e rischio residuo. Il rischio intrinseco rappresenta la quantità di rischio che il sistema di intelligenza artificiale presenta in assenza di mitigazioni o controlli. Il rischio residuo cattura i rischi rimanenti dopo aver preso in considerazione le strategie di mitigazione.

Tieni sempre presente che la valutazione del rischio è un’attività incentrata sull’uomo che richiede sforzi a livello di organizzazione; questi sforzi vanno dal garantire che tutte le parti interessate siano incluse nel processo di valutazione (come i team di prodotto, ingegneria, scienza, vendite e sicurezza) alla valutazione di come le prospettive e le norme sociali influenzano la probabilità percepita e le conseguenze di determinati eventi.

Perché la tua organizzazione dovrebbe preoccuparsi della valutazione del rischio?

L’istituzione di quadri di gestione del rischio per i sistemi di IA può apportare benefici alla società in generale promuovendo la progettazione, lo sviluppo e il funzionamento sicuri e responsabili dei sistemi di IA. I quadri di gestione del rischio possono anche avvantaggiare le organizzazioni attraverso quanto segue:

  • Miglioramento del processo decisionale – Comprendendo i rischi associati ai sistemi di intelligenza artificiale, le organizzazioni possono prendere decisioni migliori su come mitigare tali rischi e utilizzare i sistemi di intelligenza artificiale in modo sicuro e responsabile
  • Maggiore pianificazione della conformità – Un quadro di valutazione del rischio può aiutare le organizzazioni a prepararsi ai requisiti di valutazione del rischio contenuti nelle leggi e nei regolamenti pertinenti
  • Costruire fiducia – Dimostrando che stanno adottando misure per mitigare i rischi dei sistemi di intelligenza artificiale, le organizzazioni possono dimostrare ai propri clienti e alle parti interessate che si impegnano a utilizzare l’intelligenza artificiale in modo sicuro e responsabile

Come valutare il rischio?

Come primo passo, un’organizzazione dovrebbe considerare la descrizione del caso d’uso dell’IA che deve essere valutato e identificare tutte le parti interessate rilevanti. Un caso d'uso è uno scenario o una situazione specifica che descrive il modo in cui gli utenti interagiscono con un sistema di intelligenza artificiale per raggiungere un obiettivo particolare. Quando si crea una descrizione di un caso d'uso, può essere utile specificare il problema aziendale da risolvere, elencare le parti interessate coinvolte, caratterizzare il flusso di lavoro e fornire dettagli relativi agli input e agli output chiave del sistema.

Quando si tratta di stakeholder, è facile trascurarne alcuni. La figura seguente è un buon punto di partenza per mappare i ruoli delle parti interessate dell’IA.

Fonte: “Informatica – Intelligenza artificiale – Concetti e terminologia dell’intelligenza artificiale”.

Un importante passo successivo della valutazione del rischio del sistema IA consiste nell’identificare eventi potenzialmente dannosi associati al caso d’uso. Nel considerare questi eventi, può essere utile riflettere sulle diverse dimensioni dell’IA responsabile, come ad esempio l’equità e la robustezza. Diversi stakeholder potrebbero essere colpiti in misura diversa lungo dimensioni diverse. Ad esempio, un basso rischio di robustezza per un utente finale potrebbe essere il risultato di un sistema di IA che presenta piccole interruzioni, mentre un basso rischio di equità potrebbe essere causato da un sistema di IA che produce risultati trascurabilmente diversi per diversi gruppi demografici.

Per stimare il rischio di un evento è possibile utilizzare una scala di probabilità in combinazione con una scala di gravità per misurare la probabilità che si verifichi e l’entità delle conseguenze. Un utile punto di partenza quando si sviluppano queste scale potrebbe essere il NIST RMF, che suggerisce di utilizzare categorie qualitative non numeriche che vanno dal rischio molto basso a molto alto o principi di valutazione semiquantitativa, come scale (come 1-10), contenitori o altro. numeri rappresentativi. Dopo aver definito le scale di probabilità e gravità per tutte le dimensioni rilevanti, è possibile utilizzare uno schema di matrice di rischio per quantificare il rischio complessivo per le parti interessate lungo ciascuna dimensione rilevante. La figura seguente mostra un esempio di matrice di rischio.

Utilizzando questa matrice di rischio, possiamo considerare un evento con bassa gravità e rara probabilità che si verifichi come a rischio molto basso. Tieni presente che la valutazione iniziale sarà una stima del rischio intrinseco e che le strategie di mitigazione del rischio possono aiutare a ridurre ulteriormente i livelli di rischio. Il processo può quindi essere ripetuto per generare una valutazione per l'eventuale rischio residuo rimanente per evento. Se vengono identificati più eventi lungo la stessa dimensione, può essere utile scegliere il livello di rischio più elevato tra tutti per creare un riepilogo della valutazione finale.

Utilizzando la sintesi della valutazione finale, le organizzazioni dovranno definire quali livelli di rischio sono accettabili per i loro sistemi di intelligenza artificiale, nonché considerare le normative e le politiche pertinenti.

Impegno di AWS

Attraverso impegni con il Casa Bianca ed UN, tra l'altro, ci impegniamo a condividere le nostre conoscenze e competenze per promuovere l'uso responsabile e sicuro dell'intelligenza artificiale. In questo senso, Adam Selipsky di Amazon ha recentemente rappresentato AWS all'evento Vertice sulla sicurezza dell'intelligenza artificiale alla presenza di capi di stato e leader del settore, a ulteriore dimostrazione del nostro impegno nella collaborazione per lo sviluppo responsabile dell’intelligenza artificiale.

Conclusione

Con il continuo progresso dell’intelligenza artificiale, la valutazione del rischio sta diventando sempre più importante e utile per le organizzazioni che desiderano creare e implementare l’intelligenza artificiale in modo responsabile. Stabilendo un quadro di valutazione del rischio e un piano di mitigazione del rischio, le organizzazioni possono ridurre il rischio di potenziali incidenti legati all’intelligenza artificiale e guadagnare la fiducia dei propri clienti, oltre a ottenere vantaggi come maggiore affidabilità, maggiore equità per diversi dati demografici e altro ancora.

Vai avanti e inizia il tuo viaggio verso lo sviluppo di un quadro di valutazione del rischio nella tua organizzazione e condividi i tuoi pensieri nei commenti.

Consulta anche una panoramica dei rischi dell’IA generativa pubblicata su Amazon Science: L’intelligenza artificiale responsabile nell’era generativaed esplora la gamma di servizi AWS che possono supportarti nel tuo percorso di valutazione e mitigazione del rischio: Amazon SageMaker Chiarire, Monitor modello Amazon SageMaker, AWS CloudTrail, Nonché quadro di governance modello.


Informazioni sugli autori

Mia C. Mayer è uno scienziato applicato e docente di ML presso AWS Machine Learning University; dove ricerca e insegna sicurezza, spiegabilità e correttezza dei sistemi di machine learning e intelligenza artificiale. Nel corso della sua carriera, Mia ha istituito diversi programmi di sensibilizzazione universitaria, ha lavorato come docente ospite e oratore principale e ha presentato in numerose grandi conferenze di apprendimento. Aiuta inoltre i team interni e i clienti AWS a iniziare il loro percorso verso un'intelligenza artificiale responsabile.

Denis V.Batalov Denis è un veterano di Amazon da 17 anni e un dottorato di ricerca in Machine Learning, Denis ha lavorato a progetti entusiasmanti come Search Inside the Book, app Amazon Mobile e Kindle Direct Publishing. Dal 2013 aiuta i clienti AWS ad adottare la tecnologia AI/ML come Solutions Architect. Attualmente, Denis è un leader tecnologico mondiale per AI/ML responsabile del funzionamento di AWS ML Specialist Solutions Architect a livello globale. Denis è un oratore pubblico frequente, puoi seguirlo su Twitter @dbatalov.

La dottoressa Sara Liu è un Senior Technical Program Manager presso il team AWS Responsible AI. Lavora con un team di scienziati, responsabili di set di dati, ingegneri ML, ricercatori e altri team interfunzionali per aumentare il livello di intelligenza artificiale responsabile nei servizi AI di AWS. I suoi progetti attuali riguardano lo sviluppo di carte dei servizi di intelligenza artificiale, la conduzione di valutazioni del rischio per un'intelligenza artificiale responsabile, la creazione di set di dati di valutazione di alta qualità e l'implementazione di programmi di qualità. Aiuta inoltre i team interni e i clienti a soddisfare gli standard in evoluzione del settore dell'intelligenza artificiale.

spot_img

L'ultima intelligenza

spot_img