Logo Zephyrnet

Le aziende dovrebbero essere caute nell’utilizzare l’intelligenza artificiale generativa

Data:

Summit DataGrail L’intelligenza artificiale generativa è un territorio inesplorato e coloro che desiderano esplorarlo devono essere consapevoli dei pericoli, ha avvertito il negozio di privacy DataGrail durante il suo vertice questa settimana a San Francisco.

Praticamente tutte le aziende che utilizzano la tecnologia si trovano ad affrontare una pressione crescente per sfruttare la GenAI – e molti temono che, se rimangono indietro rispetto alla tendenza, potrebbero perdere a favore di concorrenti più innovativi che hanno creato uno strumento o un prodotto che darà loro un vantaggio competitivo. Ma insieme ai suoi vantaggi, l’intelligenza artificiale generativa introduce tutta una serie di problemi che le aziende non comprendono ancora o non sanno come risolvere.

Ad esempio, i modelli linguistici di grandi dimensioni possono divulgare informazioni private e sensibili racchiuse nei dati di addestramento. Per eseguire attività come rispondere a domande, riassumere documenti o scrivere codice, devono acquisire enormi quantità di contenuti. 

Studi legali, banche o ospedali formeranno modelli sui dati riservati contenenti informazioni di identificazione personale, dettagli finanziari e cartelle cliniche. Come possono proteggere le informazioni sui clienti e la loro proprietà intellettuale da fughe accidentali?

Uno sviluppatore di Samsung ha effettivamente alimentato il codice sorgente proprietario di ChatGPT sperando che potesse aiutare a trovare bug. I dirigenti di Apple, JPMorgan Chase e Amazon da allora hanno vietato ai lavoratori di utilizzare ChatGPT e strumenti simili internamente per paura che il creatore del software OpenAI potesse addestrarsi sui loro dati ed esporre i loro segreti commerciali.

"È un po' come gli albori della sicurezza del software", ha detto Alex Stamos, co-fondatore del Krebs Stamos Group, una società di consulenza sulla sicurezza informatica ed ex responsabile della sicurezza di Facebook. Il registro al vertice.

“Sapete, all'inizio degli anni 2000, c'erano aziende che avevano una linea di app aziendali o addirittura team di prodotto senza controllo di sicurezza centralizzato.

“E siamo più o meno indietro con l'intelligenza artificiale. Se chiedi al consiglio di amministrazione "quali pensi siano i tuoi rischi?" non ne hanno idea. Oppure, se chiedono ai loro dirigenti di spiegare cosa sta succedendo, non riescono quasi mai a ottenere una risposta precisa”.

Gli sviluppatori di modelli di intelligenza artificiale generativa offrono la speranza di una sicurezza e privacy leggermente migliori per le imprese: OpenAI ha promesso di crittografare e non addestrare il testo nelle conversazioni tra il suo chatbot e i clienti ChatGPT Enterprise, ad esempio. Ma questo non risolve altri tipi di problemi con la tecnologia, come la sua tendenza a generare false informazioni – un fenomeno noto come “allucinazione”. 

Joshua Browder, CEO di DoNotPay – una startup che ha sviluppato un cosiddetto “avvocato robot” per aiutare automaticamente i consumatori a fare cose come i biglietti per il parcheggio in concorso utilizzando l’intelligenza artificiale per redigere e-mail o reclami ufficiali – ha affermato che gli errori fattuali renderanno alcuni servizi inefficaci.

«Chi è responsabile delle allucinazioni? Penso che questa sia la cosa più importante”, ha detto Il registro. “Immagina se stai cercando di presentare ricorso contro un addebito sulla bolletta Internet e [l'IA] ha detto che ci sono state cinque interruzioni del servizio mentre non ce ne sono state. Se stai utilizzando uno strumento che mente, chi ne è legalmente responsabile? È il fornitore del modello? Oppure è un'azienda che lo utilizza? È il consumatore?"

Peggio ancora, i chatbot potrebbero finire per fornire risposte inappropriate che potrebbero essere tossiche o parziali, il che potrebbe danneggiare la reputazione delle aziende che li utilizzano per l’interazione con i clienti. Le misure di sicurezza come i filtri dei contenuti possono bloccare parolacce o richieste dannose, ma non sempre funzionano.

"Non sappiamo ancora cosa andrà storto con l'intelligenza artificiale", ha detto Stamos. “È come negli anni '90, quando le vulnerabilità di base presenti nel software non erano ancora state scoperte. Avremmo queste situazioni in cui ogni anno si tiene un discorso BlackHat o uno al DEF CON, che rivoluzionerebbe totalmente il settore, perché all'improvviso, la ricerca di una persona su un tipo di difetto si è rivelata applicabile a migliaia di prodotti diversi.

“Ed è qui che ci troviamo con l’intelligenza artificiale: puoi inventare un nuovo modo per manipolare il sistema per fare qualcosa di dannoso o infrangere le sue promesse e non puoi prepararti per questo, perché nessuno sapeva che quel tipo di problema esistesse prima.

“L’altro problema è che questi sistemi sono così incredibilmente complicati che pochissime persone capiscono come funzionano effettivamente. Queste cose sono così non deterministiche e così complesse che cercare di prevedere quali cose brutte possono accadere è impossibile”.

Infine, ci sono altri rischi nell’utilizzo dell’intelligenza artificiale generativa, come le preoccupazioni sul copyright. Molti strumenti sono addestrati su dati recuperati da Internet e i creatori di contenuti temono di poter essere denunciati per aver generato contenuti basati su opere protette, come libri, canzoni o opere d'arte. All'inizio di questo mese, Microsoft dichiarata difenderebbe i clienti paganti se dovessero affrontare azioni legali sul copyright per l'utilizzo dei suoi strumenti Copilot.

I contenuti generati dall'intelligenza artificiale non possono essere protetti legalmente dalle attuali leggi sul copyright negli Stati Uniti. Uno sviluppatore può brevettare un'invenzione se contiene codice generato da un modello linguistico di grandi dimensioni? La Coca-Cola ha recentemente lanciato sul mercato un gusto di bevanda analcolica che, secondo quanto riferito, è stato creato dall'intelligenza artificiale. La ricetta è segreta, ma se un’altra azienda fosse in grado di replicarla, sarebbe giusto venderla?

Questi enigmi sono difficili da risolvere. Ci sono troppe incognite in questo momento e riguardano diversi dipartimenti all’interno delle organizzazioni che potrebbero non essere abituati a lavorare insieme, come legale, conformità, marketing, vendite e IT. L’importante è essere consapevoli che i pericoli esistono ed essere pronti quando emergono. ®

spot_img

L'ultima intelligenza

spot_img