Logo Zephyrnet

Migliori pratiche di governance dell’intelligenza artificiale – DATAVERSITY

Data:

Sansoen Saengsakaorat / Shutterstock.com

La governance dell’IA ha lo scopo di promuovere l’uso responsabile dell’intelligenza artificiale per il miglioramento dell’umanità. L’intelligenza artificiale si è rivelata molto utile nel completare un’ampia varietà di compiti in modo rapido ed efficiente. Sfortunatamente, possono essere utilizzati anche per sostenere comportamenti criminali o per creare e diffondere disinformazione. La governance dell’intelligenza artificiale è uno sforzo per ridurre al minimo l’uso dell’intelligenza artificiale per comportamenti criminali e non etici.

I recenti progressi nel campo dell’intelligenza artificiale – ChatGPT, intelligenza artificiale generativa, modelli linguistici di grandi dimensioni – hanno galvanizzato sia i leader del settore che quelli governativi nel riconoscere la necessità di linee guida e normative etiche quando si utilizza l’intelligenza artificiale.     

Lo sviluppo di programmi, regolamenti e linee guida di governance dell’IA rappresenta uno sforzo per governare lo sviluppo e le applicazioni della tecnologia AI. Gli scrittori, ad esempio, hanno espresso notevoli preoccupazioni riguardo alla possibilità di essere sostituiti dall’intelligenza artificiale, e la Writers Guild of America ha scioperato, chiedendo aumenti salariali e severe limitazioni sull’uso dell’intelligenza artificiale. AI per scopi di scrittura

La capacità di creare immagini realistiche (denominata "falsi profondi”) di individui che dicono qualsiasi cosa desiderata dalla persona che controlla l’IA è diventata una preoccupazione per alcuni politici e gruppi politici. Sono state presentate richieste di riscatto dopo che il sistema informatico di un'azienda è stato infettato da malware generato dall'intelligenza artificiale o dopo la ricreazione della voce di una figlia al telefono, che singhiozzava e diceva a un genitore è stata rapita.

La governance dell’IA si occupa di una serie di questioni critiche, come la privacy, pregiudizi incorporati, furto d'identità, furto e frode. È un peccato che leggi e regolamenti siano necessari per proteggere le persone da individui con un’etica debole o priva di etica. Le aziende dovrebbero impegnarsi a rimanere aggiornate sulle leggi e sui regolamenti emergenti e garantire che le creazioni e l’implementazione dei loro sistemi di intelligenza artificiale siano conformi.

Le organizzazioni possono navigare nel file questioni etiche sollevato dall’uso dell’intelligenza artificiale aderendo a un sistema di migliori pratiche di governance dell’IA, promuovendone a sua volta l’uso responsabile per il miglioramento del genere umano.

Sforzi del governo per regolamentare l’intelligenza artificiale

Negli Stati Uniti la libertà di parola può essere confusa con la libertà di mentire. La situazione è sconcertante e rende difficile la creazione di leggi che limitino la disinformazione. L’intelligenza artificiale può essere uno strumento straordinariamente utile per aggravare le frodi. 

Per sviluppare un sistema che protegga sia gli individui che la libertà di essere innovativi, i governi devono adottare alcune misure. Il primo passo consiste nello sviluppare una comprensione dei problemi derivanti dall’uso non etico dell’intelligenza artificiale. Negli Stati Uniti, il Senato avviato questo quando hanno chiesto a diversi CEO del settore tecnologico di partecipare a nove sessioni, la prima delle quali si terrà il 13 settembre 2023, per discutere le preoccupazioni dei CEO sull'intelligenza artificiale.

Il 30 ottobre 2023, il presidente Biden ha emesso un ordine esecutivo per quanto riguarda le preoccupazioni relative all’IA. Con l’eccezione di un mandato che impone agli “sviluppatori dei più potenti sistemi di intelligenza artificiale di condividere i risultati dei test di sicurezza e altre informazioni critiche con il governo degli Stati Uniti”, l’ordine esecutivo si occupa dello “sviluppo” di standard e linee guida. Al momento, gli Stati Uniti non hanno sviluppato alcuna legge che controlli o limiti il ​​comportamento dell’intelligenza artificiale.  

L’Unione Europea (UE) è stata una delle prime organizzazioni governative a decidere che avevano bisogno di normative incentrate sull’intelligenza artificiale. Il testo finale della loro proposta legislativa, il Atto dell’UE sull’IA, è ancora in fase di sviluppo a seguito di un accordo dell'8 dicembre 2023. Hanno scelto di sviluppare una serie di livelli di rischio, con i sistemi di intelligenza artificiale a rischio inaccettabile descritti come una minaccia per le persone (questi rischi saranno vietati). I rischi inaccettabili includono:

  • La manipolazione cognitiva, deliberata e comportamentale degli esseri umani o di specifici gruppi vulnerabili. Un esempio potrebbero essere i giocattoli ad attivazione vocale che incoraggiano i bambini a compiere comportamenti pericolosi.
  • Punteggio sociale, il processo di classificazione delle persone in base al loro stato socioeconomico, comportamento o caratteristiche personali.
  • L’utilizzo di sistemi di identificazione biometrica in tempo reale e a distanza.

La Cina non ha le stesse considerazioni sulla libertà di parola sostenute dai governi democratici. Di conseguenza, le loro priorità di intelligenza artificiale sono diverse. Le misure amministrative provvisorie per i servizi di intelligenza artificiale generativa è stato implementato il 15 agosto 2023. Queste normative sul controllo dell’intelligenza artificiale richiedono alle aziende che offrono servizi di intelligenza artificiale generativa di completare una valutazione della sicurezza e un’archiviazione degli algoritmi. Richiedono inoltre ai fornitori di impegnarsi per migliorare l’accuratezza, l’obiettività, l’autenticità e l’affidabilità dei contenuti generati e ne richiedono la supervisione.

In generale, i paesi che si occupano della governance dell’IA sono ancora in fase di sviluppo di leggi e regolamenti adeguati.

Sviluppare le migliori pratiche di governance dell’intelligenza artificiale all’interno di un’azienda

I manager aziendali dovrebbero considerare l’impatto dell’intelligenza artificiale sui propri clienti e dipendenti e implementare politiche per ridurre al minimo i rischi ed evitare di causare danni. Sviluppando un sistema di migliori pratiche di governance dell’IA, le aziende possono sostenere l’uso responsabile dell’intelligenza artificiale per il progresso del genere umano. 

Le migliori pratiche includono:

Identificare i materiali generati dall'intelligenza artificiale: Molti governi stanno discutendo sull’uso obbligatorio delle filigrane come modo per distinguere l’arte generata dall’intelligenza artificiale. Per le organizzazioni oneste e responsabili, una filigrana fornisce un modo semplice per comunicare che l'arte è stata creata dall'intelligenza artificiale e non da un essere umano. Il problema con le filigrane è che possono essere rimosse abbastanza facilmente; Per aumentare il rischio di confusione e disinformazione, è possibile aggiungere filigrane alle opere d'arte create dagli esseri umani. 

Le organizzazioni oneste e responsabili dovrebbero includere una filigrana su qualsiasi opera d'arte generata dall'intelligenza artificiale. Gli articoli scritti dall'intelligenza artificiale dovrebbero inserire la dicitura "generato dall'intelligenza artificiale" nel punto in cui si trova normalmente il nome dell'autore, indipendentemente dal fatto che la persona che ha avviato l'articolo voglia rivendicare la paternità. (Fare diversamente è semplicemente fuorviante e ingannevole.) 

Affrontare i bias algoritmici: Distorsioni e pregiudizi involontari (o seminati segretamente) integrati negli algoritmi di un'intelligenza artificiale possono avere un impatto sulle pratiche di assunzione e sul servizio clienti di un'organizzazione utilizzando dati demografici come la razza o il genere.

Per determinare se un'intelligenza artificiale è distorta, esegui un test. Provalo più volte per individuare eventuali pregiudizi. Excel si è sviluppato Strumenti di analisi What-If (Goal Seek e Scenario Manager) che effettueranno tali test. Questi strumenti sono progettati per promuovere l’equità e l’equità nei sistemi di intelligenza artificiale. Garantiscono che l’IA operi senza discriminazioni.

Sicurezza del cliente: Esistono due tipi fondamentali di informazioni sui clienti che le aziende raccolgono. Il primo viene fornito direttamente dal cliente e include informazioni come indirizzo di casa, numero di telefono ed eventualmente data di nascita. Tutti concordano che queste informazioni dovrebbero essere sicure e protette.

L’intelligenza artificiale può essere combinata con la governance dei dati per supportare le leggi sulla privacy e sulla sicurezza dei dati. Sviluppando un programma di governance dei dati e regole di sicurezza supportati dall’intelligenza artificiale, un’azienda può ridurre significativamente i rischi di dati rubati e sfruttati. 

La seconda forma di informazione sul cliente è acquistati da altre organizzazioni e include dati che vanno dai modelli di acquisto online all'attività sui social media. Questo tipo di informazioni (i cosiddetti “dati di terze parti”) vengono raccolte con l'intento di manipolare una persona per indurla ad effettuare un acquisto. 

Alla maggior parte delle persone non piace l'idea che le proprie preferenze e bisogni personali vengano osservati e sfruttati. Le aziende oneste e responsabili non dovrebbero sostenere l’uso dell’intelligenza artificiale nella manipolazione degli esseri umani, né dei dati di terze parti in generale.

Sviluppare una filosofia del “non nuocere” quando si utilizza l’intelligenza artificiale: Ci sono aziende il cui unico obiettivo sono i profitti a breve termine e in cui l’inganno va bene, purché porti profitto. Ma faresti affari con loro più di una volta? Nella continua ricerca del profitto, può essere facile perdere di vista il quadro generale.

Quando l’etica è inclusa nel modello di business, si sviluppa una filosofia di non nuocere. Informazioni oneste e accurate raramente danneggiano la base clienti di un'azienda, ma l'inganno o il furto in genere comportano la perdita di eventuali affari futuri con quel cliente. Inoltre, informazioni accurate ottimizzano l’efficienza e il flusso della società nel suo insieme, promuovendo a sua volta il progresso del genere umano. L’introduzione di disinformazione può provocare caos e confusione. 

L’intelligenza artificiale può essere utilizzata per promuovere il caos e la confusione, oppure può essere utilizzata per scopi di buona comunicazione. 

Sviluppare un codice etico sia per l’organizzazione che per l’IA: Un codice etico di governance dell’intelligenza artificiale dovrebbe delineare il desiderio e l’impegno dell’organizzazione verso un comportamento etico. Questo codice etico può includere l’impegno a “utilizzare l’intelligenza artificiale per fornire informazioni accurate” e “l’intelligenza artificiale non deve essere utilizzata per creare o distribuire disinformazione”.

La creazione di un codice etico per la governance dell’intelligenza artificiale aiuta un’organizzazione a stabilire chiari standard di comportamento. Se reso disponibile al pubblico, il codice etico di un'azienda può aiutare a sviluppare la fiducia dei clienti e delle parti interessate, mitigando i rischi legali e dimostrando la responsabilità sociale.

Il data steward e l'etica dell'intelligenza artificiale riportano: Un programma di governance dell’IA dovrebbe includere una serie di politiche e procedure che supportino le preoccupazioni etiche. Una di queste politiche dovrebbe richiedere rapporti etici regolarmente programmati, e il amministratore dei dati sembra essere la persona adatta a cui assegnare questa responsabilità. Creando un meccanismo di reporting sull’uso etico dell’intelligenza artificiale dell’organizzazione, la leadership senior può garantirne la responsabilità. Gli audit di routine possono anche aiutare a identificare potenziali problemi legali e promuovere la conformità. 

Queste misure rafforzano collettivamente l’implementazione di un programma di governance dell’IA e promuovono pratiche di intelligenza artificiale responsabili in tutta l’organizzazione.

Educare la direzione e il personale: La creazione di un programma completo di governance dell’intelligenza artificiale richiede che tutto il personale e il management comprendano il codice etico e gli obiettivi a lungo termine dell’organizzazione. Il processo di formazione garantisce che tutto il personale lavori per raggiungere gli stessi obiettivi e che nessuno del personale lavori erroneamente contro tali obiettivi.

L'uso degli algoritmi nella governance dell'intelligenza artificiale

Se noi, come esseri umani, trovassimo un modo per separare e identificare le informazioni accurate dalla disinformazione, potremmo essere in grado di sviluppare algoritmi che impediscano all’intelligenza artificiale di compiere atti criminali e distribuire disinformazione.

spot_img

L'ultima intelligenza

spot_img