Logo Zephyrnet

La proprietà intellettuale è parte integrante della regolamentazione dell'IA e sbagliarla darà più potere alla Big Tech

Data:

Aggregatore di copyright robot malvagioI governi di tutto il mondo stanno valutando come possono - e dovrebbero - regolare lo sviluppo e l'implementazione di tecnologie di intelligenza artificiale (AI) sempre più potenti e dirompenti. L'Australia non fa eccezione. Il 1° giugno 2023 il Il governo australiano ha annunciato il rilascio di due documenti inteso ad aiutare a "garantire che la crescita delle tecnologie di intelligenza artificiale (AI) in Australia sia sicura e responsabile". Il primo di questi è il Rapporto di risposta rapida: IA generativa, che è stato commissionato dal National Science and Technology Council australiano su richiesta del ministro dell'Industria e della scienza, Ed Husic, a febbraio. IL Rapporto di risposta rapida valuta i rischi e le opportunità potenziali in relazione all'IA e intende fornire una base scientifica per le discussioni sulla via da seguire. Il secondo documento è il IA sicura e responsabile in Australia Documento di discussione che, secondo il comunicato stampa del ministro, "esamina le risposte normative e di governance esistenti in Australia e all'estero, identifica potenziali lacune e propone diverse opzioni per rafforzare il quadro che disciplina l'uso sicuro e responsabile dell'IA".

Il documento di discussione cerca feedback su come l'Australia può affrontare i potenziali rischi dell'IA. Fornisce una panoramica della governance e della regolamentazione dell'IA nazionale e internazionale esistente e identifica potenziali lacune e meccanismi aggiuntivi, inclusi regolamenti, standard, strumenti, quadri, principi e pratiche commerciali, per supportare lo sviluppo e l'adozione dell'IA. Si concentra sulla garanzia che l'IA sia utilizzata in modo sicuro e responsabile, ma non prende in considerazione tutte le questioni relative all'IA, come le implicazioni dell'IA sul mercato del lavoro e sulle competenze, la sicurezza nazionale o gli usi specifici dell'IA per scopi militari.

Un'altra area chiave che è espressamente esclusi da questa consultazione è proprietà intellettuale. Questo è, a mio avviso, un grave difetto. Sembra presumere che l'IP sia in qualche modo separabile dalle altre questioni trattate dal documento di discussione. Questa è una presunzione errata, in particolare in relazione alle pratiche commerciali. Nel mondo contemporaneo, la proprietà intellettuale è al centro di molte pratiche commerciali e le leggi e le normative che creiamo in merito alla proprietà intellettuale possono fare la differenza tra una pratica commerciale fattibile e una insostenibile. E non tutte le pratiche commerciali che potrebbero essere abilitate dalle leggi sulla proprietà intellettuale sono necessariamente desiderabili o di netto vantaggio per la società. Se non prendiamo in considerazione l'interazione tra leggi sulla proprietà intellettuale, pratiche commerciali e altre forme di regolamentazione, rischiamo di commettere errori che potrebbero rivelarsi molto difficili da correggere in futuro.

Questo articolo nasce dal processo di consultazione australiano, ma non riguarda principalmente il processo di consultazione australiano (anche se ci tornerò alla fine). Riguarda il modo in cui i diritti di proprietà intellettuale e altre forme di regolamentazione potrebbero operare per concentrare livelli crescenti di potere nelle mani delle poche grandi aziende tecnologiche - come Microsoft (attraverso la sua partnership con OpenAI), Google e Amazon - che sono cresciute in ultimi anni come attori dominanti nell'IA e nelle sue tecnologie abilitanti. Sulla base dei recenti sviluppi, ritengo che sia già stato preparato il terreno per l'attuazione di esattamente i tipi di leggi e regolamenti che trarrebbero maggior vantaggio da queste aziende, con il pretesto di proteggere gli innovatori, i creatori di contenuti e il pubblico in generale dalle varie minacce. presentato da AI.

Si sta preparando una tempesta perfetta. L'onerosa regolamentazione relativa allo sviluppo, alla formazione e all'implementazione dei sistemi di intelligenza artificiale potrebbe combinarsi con le restrizioni basate sulla proprietà intellettuale sull'uso dei dati di addestramento e sui risultati dell'IA, per offrire un vantaggio alle aziende più ricche e dotate di risorse migliori del mondo. La tempesta è alimentata da clamore e allarmismo che, anche se in gran parte può essere ben intenzionato, gioca a favore degli interessi della grande tecnologia. 

I diritti di proprietà intellettuale e l'arte del furto

Sembra che ogni volta che le leggi sulla proprietà intellettuale vengono ampliate o "rafforzate", ciò viene acclamato dai legislatori e dalle autorità competenti come vantaggioso per i creatori e gli innovatori. La realtà, tuttavia, è ben diversa da questo ideale utopico. Nel loro recente libro, Il capitalismo di Chokepoint, Rebecca Giblin e Cory Doctorow analizzano la miriade di modi in cui un numero minuscolo di mega-corporazioni sta assorbendo la parte del leone dei profitti tra le industrie creative e Internet creando "punti di strozzatura" tra creatori e consumatori. Ognuno di noi sta contribuendo con la propria valuta guadagnata duramente a Google (incluso YouTube), Facebook/Meta, Apple, Amazon, Spotify, le tre principali etichette che controllano la registrazione e l'editoria musicale, le cinque società che controllano l'editoria commerciale di libri, l'unica azienda (iHeartMedia) che domina le trasmissioni radiofoniche statunitensi e sta diffondendo sempre più i suoi tentacoli in tutto il mondo, e l'unica azienda (Live Nation Entertainment) che sta attivamente rastrellando l'industria della musica dal vivo. E neanche lontanamente abbastanza del nostro denaro - e probabilmente molto meno di quanto pensi - sta finendo nei conti bancari degli artisti creativi che crediamo di sostenere con il nostro patrocinio.

(Divulgazione completa: l'ufficio di Rebecca è proprio dietro l'angolo dalla mia scrivania alla Melbourne Law School. Ma non è per questo che ti sto dicendo che Il capitalismo di Chokepoint è un libro eccellente e che apre gli occhi, e che dovresti comprarlo e leggerlo. Nel caso ve lo stiate chiedendo, ho pagato io stesso la mia copia – ironia della sorte, nella versione Kindle!)

Estendere la durata, l'ambito o la forza delle leggi sul diritto d'autore non è mai stato, almeno nell'era moderna, di alcun beneficio per la stragrande maggioranza dei creatori di preziose opere d'autore. Come affermano concisamente Giblin e Doctorow, "dare più diritti d'autore ai creatori che stanno lottando contro potenti acquirenti è come dare più soldi per il pranzo a tuo figlio vittima di bullismo". I bulli continuano a rubare i soldi per il pranzo di tuo figlio, ma ora rende solo quei bulli più ricchi! Questo è esattamente quello che è successo quando è stato stabilito che il campionamento della musica era una violazione del diritto d'autore. Si potrebbe pensare che questa sarebbe stata un'ottima notizia per gli artisti il ​​cui lavoro è stato campionato quando, in realtà, è stata soprattutto un'ottima notizia per le potenti etichette che hanno immediatamente rivendicato, o acquisito, la proprietà dei relativi diritti e hanno iniziato a aspirare gli occhi- canoni di irrigazione, utilizzando contabilità creativa e termini contrattuali di sfruttamento per tenere per sé la maggior parte dei proventi.

Nell'intelligenza artificiale, il controllo dei contenuti è potere

Stiamo già vedendo segni di come potrebbero emergere punti di strozzatura nel campo della tecnologia AI. Ad esempio, in relazione al settore delle illustrazioni stock, ci sono alcune prove che l'attività di licenza delle immagini è dominata da un numero relativamente piccolo di fornitori: principalmente Shutterstock; Getty Images (incluso iStock); e AdobeStock. Due di queste aziende si stanno già impegnando con sistemi di intelligenza artificiale generativa, anche se in modi molto diversi.

Da una parte, Shutterstock ha "collaborato" con OpenAI nella formazione e nell'uso di OpenAI Sistema di intelligenza artificiale generativa da testo a immagine DALL-E. In base a questo accordo, Shutterstock fornisce immagini (e testo descrittivo associato) dal suo database per l'utilizzo da parte di OpenAI nell'addestramento dei modelli DALL-E. Nel frattempo, gli utenti di Shutterstock ottengono l'accesso a DALL-E per generare immagini basate su prompt di testo. Sebbene ciò possa comportare una perdita di entrate per gli artisti se gli utenti scelgono immagini personalizzate generate dall'intelligenza artificiale piuttosto che il lavoro degli artisti, Shutterstock ha promesso di compensare gli artisti per l'utilizzo del loro lavoro nella formazione dei modelli di intelligenza artificiale (presumibilmente dai canoni pagati a Shutterstock di OpenAI).

D'altro canto, Getty Images ha citato in giudizio Stability AI per (tra le altre cose) violazione del copyrightL'IA di stabilità descrive se stessa come "la principale azienda mondiale di IA generativa open source" con l'obiettivo di "massimizzare l'accessibilità dell'IA moderna per ispirare la creatività e l'innovazione globali". La prima versione del suo modello generativo da testo a immagine, Stable Diffusion, è stata rilasciata nell'agosto 2022. Getty Images sostiene che Stability AI si sia impegnata in una "sfacciata violazione della proprietà intellettuale di Getty Images su scala sbalorditiva" copiando più di 12 milioni di immagini dal suo database senza autorizzazione o compenso. 

Il contrasto tra i modelli di business di OpenAI e Stability AI non potrebbe essere più netto. OpenAI è, nonostante il nome, tutt'altro che aperto e non ha rilasciato al pubblico codice sorgente DALL-E o modelli addestrati. I contenuti dei suoi set di dati di formazione sono sconosciuti, così come i dettagli del suo accordo con Shutterstock. Questo ha tutti i tratti distintivi di un punto di strozzatura in divenire. Da un lato abbiamo artisti che cercano di guadagnarsi da vivere con le loro immagini, mentre dall'altro abbiamo i potenziali consumatori di servizi di intelligenza artificiale generativa. E, nel mezzo, OpenAI – il custode dei suoi servizi proprietari di intelligenza artificiale generativa – in collaborazione con Shutterstock – controller di uno dei più grandi tesori di immagini stock del pianeta – con la potenziale opportunità di bloccare entrambi i lati del mercato, se solo loro possono diventare sufficientemente dominanti.

Nel frattempo, Stability AI (che offre anche servizi di intelligenza artificiale generativa a pagamento) ha aperto il suo codice sorgente e i suoi modelli, che sono stati chiaramente addestrati utilizzando testo e immagini prelevati da Internet (incluso, presumibilmente, il sito Web di Getty Images) con apparente disprezzo per qualsiasi problemi di copyright che ciò potrebbe sollevare. Il rilascio di modelli addestrati aiuta altre aziende ad entrare nel mercato, anche se non dispongono delle risorse finanziarie o informatiche per addestrare modelli stessi (è è stato riferito che le operazioni e le spese per il cloud di Stability AI hanno superato i 50 milioni di dollari, prima della raccolta di 101 milioni di dollari in finanziamenti di rischio nell'ottobre 2022). Ma se Getty Images riesce a stabilire che i suoi diritti d'autore sono stati violati durante l'addestramento dei modelli, è probabile che debbano essere ritirati, bloccando chiunque abbia cercato di costruire un business basato sui modelli aperti di Stability AI. Ciò restituirebbe la parte del leone al potere agli aggregatori di diritti d'autore e alle grandi società di intelligenza artificiale incassate che sono nella posizione migliore per offrire loro affari interessanti.

Prendo atto, di passaggio, che anche negli Stati Uniti sono state avviate azioni collettive per violazione del diritto d'autore da sviluppatori di software contro GitHub, Microsoft e OpenAIe di artisti contro Stability AI, DeviantArt e Midjourney. I querelanti in questi casi dovrebbero forse stare attenti a ciò che desiderano: mentre potrebbero cercare il controllo e il risarcimento per i creatori, qualsiasi successo che potrebbero ottenere è più probabile che giochi nelle mani degli aggregatori di diritti d'autore.

Beati i Fearmongers, perché essi accenderanno il FUD!

C'è poco che incoraggi un'azione affrettata e sconsiderata in modo molto più efficace della paura, dell'incertezza e del dubbio (FUD). E non sono mancati i FUD generati dai recenti sviluppi nell'IA. Naturalmente, molto di questo è stato il risultato di un livello comprensibile di ignoranza generale su queste tecnologie altamente complesse e su come funzionano. Ma parte della paura è stata scatenata da persone che, si potrebbe pensare, dovrebbero saperne di più e le cui credenziali e reputazioni conferiscono ai loro commenti maggiore autorità e influenza.

Potresti aver sentito una storia recente su un discorso fatto dal colonnello Tucker 'Cinco' Hamilton, capo dell'IA Test and Operations dell'aeronautica americana, al Future Combat Air & Space Capabilities Summit, in cui ha raccontato un aneddoto su una simulazione in cui un drone controllato dall'intelligenza artificiale ha "ucciso" il suo "operatore" (simulato) quando ha interferito con il suo obiettivo principale ("uccidere il nemico") cercando di ordinarlo non per uccidere il nemico. L'unico problema con questa storia è che in realtà non è accaduta - l'USAF lo ha successivamente negato e da allora il colonnello Hamilton ha affermato di aver "parlato male", e che stava semplicemente presentando un ipotetico "esperimento mentale" che aveva avuto origine al di fuori dell'esercito. IL problema con questo problema con la storia, tuttavia, è che alcuni media hanno scelto di giocare sulla sfiducia pubblica per mettere in dubbio le smentite - ad esempio, Il Registro è andato con 'chi lo sa?' mentre la lavorazione del prodotto finito avviene negli stabilimenti del nostro partner news.com.au, in qualche modo prevedibile, ha mantenuto il suo titolo allarmista originale ("Drone AI uccide il suo operatore durante la simulazione"), e ha minimizzato le smentite come "controllo dei danni", attribuendo esattamente la colpa all'USAF invece che al fallimento del giornalismo che è in realtà.

Sfortunatamente, a questo punto, i giornalisti e il pubblico sono già pronti a credere a questo tipo di storie, piuttosto che trattarle con lo scetticismo che meritano. 

Quando ci viene detto che oltre 1,000 persone, tra cui Elon Musk e molti "esperti di intelligenza artificiale", hanno firmato un lettera aperta pubblicata dal Future of Life Institute comprese le preoccupazioni che "le menti non umane ... potrebbero eventualmente essere più numerose, superate in astuzia, obsolete e sostituirci" e che "rischiamo di perdere il controllo della nostra civiltà", non sorprende che molti di noi possano concludere che si tratta di minacce reali e presenti.

Quando ci viene riferito di uno studio della Stanford University che ha scoperto che più di un terzo dei ricercatori ritiene che l'intelligenza artificiale potrebbe portare a una "catastrofe a livello nucleare", o ci viene detto che uno dei "padrini dell'IA", Geoffrey Hinton, si è dimesso dal suo ruolo in Google per parlare liberamente delle minacce poste dall'IA, paragonandole alle "armi nucleari", non è irragionevole supporre che l'IA rappresenti una minaccia paragonabile alle armi nucleari. Dopotutto, se Geoffrey Hinton non sa il fatto suo su questo argomento, allora chi lo sa?!

Quando ci viene detto che gli ingegneri Microsoft – che hanno lavorato con GPT-4 per mesi prima del suo rilascio pubblico integrandolo nel motore di ricerca Bing – hanno concluso che GPT-4 mostra i primi segni di “intelligenza generale artificiale” (AGI), allora perché non dovremmo credere che ora siamo davvero sul punto di sviluppare l'AGI? Anche se, per essere onesti, c'erano un certo numero di media, incluso Vice, le New York Timese Forbes, tra gli altri, che ha cercato punti di vista alternativi e ha trattato queste affermazioni "da far alzare le sopracciglia" con lo scetticismo che giustamente meritano.

È difficile capire perché così tante persone esperte e ben informate abbiano assunto il ruolo di precursori del nostro imminente destino per mano virtuale di macchine super intelligenti. Non sono certo tutti complici per i giganti della tecnologia, e la maggior parte di loro sembra essere del tutto sincera. Forse c'è qualcosa da fare la spiegazione offerta dall'analista cambriano di AI Alberto Romero, che ipotizza in modo convincente che sia coinvolto un elemento di pensiero di gruppo quasi religioso: "[t] sono di un tipo insolito con una fede non comune ... costruita su una logica superficiale ma difficile da sfatare con la quale hanno convinto se stessi per essere presagi moderni di un futuro che, nella migliore delle ipotesi, è singolarmente glorioso e, nel peggiore dei casi, il nostro capitolo conclusivo.'

Qualunque siano le motivazioni, tuttavia, l'allarmismo è stato efficace e sta giocando bene nelle mani delle grandi aziende tecnologiche che, fino ad oggi, hanno investito di più - e naturalmente sperano di ottenere il massimo - dalla tecnologia AI.

Attenzione ai geek che sopportano imbrogli

Con tutto il FUD che ora circonda l'IA, i governi sono sottoposti a crescenti pressioni per (essere visti) agire per proteggere i cittadini interessati dai potenziali danni che l'IA potrebbe causare. Il 16 maggio 2023, Il CEO di OpenAI, Sam Altman, davanti a una sottocommissione giudiziaria del Senato degli Stati Uniti, ha suggerito che "il governo degli Stati Uniti potrebbe prendere in considerazione una combinazione di requisiti di licenza e test per lo sviluppo e il rilascio di modelli di intelligenza artificiale al di sopra di una soglia di capacità". Sembra strano. Da quando le aziende tecnologiche statunitensi sono state apertamente coinvolte favorire di essere soggetto a un'ulteriore regolamentazione governativa? A meno che, ovviamente, non li avvantaggi. In effetti, ogni volta che vedi persone o organizzazioni già potenti che fanno pressioni per Scopri di più regolamento, è generalmente una scommessa sicura che lo siano cercare casa in affitto. Per vedere come ciò potrebbe applicarsi qui, dobbiamo esaminare un po' più da vicino lo stato dell'arte nei modelli di linguaggi di grandi dimensioni (LLM), come GPT-3 e GPT-4, e la direzione in cui la tecnologia sembra svilupparsi .

Finora, lo sviluppo di LLM sempre più impressionanti si è basato principalmente sul principio che "più grande è meglio". Nel loro documento del 2020 che introduce GPT-3, I modelli linguistici sono studenti con pochi spari, i ricercatori di OpenAI hanno rivelato che il modello alla base della versione gratuita iniziale di ChatGPT ha 175 miliardi di parametri ed è stato addestrato su un set di dati comprendente 300 miliardi di token (in questo contesto, un "token" è in genere una parola, parte di una parola o un simbolo di punteggiatura, nel testo utilizzato per la formazione). Le stime dei requisiti di formazione effettivi variano, ma è certo che è necessaria una piattaforma hardware con migliaia di unità di elaborazione di fascia alta (del valore dell'ordine di $ 10,000 ciascuna), con tempi di formazione misurati in settimane e costi di calcolo totali misurati in milioni di dollari, tutti, nel caso di OpenAI, forniti e finanziati da Microsoft.

Si sa molto poco per certo su GPT-4. Come affermato in OpenAI's Rapporto tecnico GPT-4, "[g]nonostante sia il panorama competitivo che le implicazioni sulla sicurezza di modelli su larga scala come GPT-4, la presente relazione non contiene ulteriori dettagli sull'architettura (comprese le dimensioni del modello), l'hardware, il calcolo dell'addestramento, la costruzione del set di dati, il metodo di addestramento, o simili.' Ma in un discorso presentato al MIT il 22 marzo 2023, Sebastien Bubeck di Microsoft (che ha guidato il team responsabile dell'integrazione di GPT-4 in Bing) ha lasciato intendere che la dimensione del modello è dell'ordine di un trilione di parametri, ovvero circa sei volte la dimensione di GPT-3. Con i progressi nell'hardware e nelle tecniche di addestramento, è probabile che il numero di unità di elaborazione e il tempo di addestramento non sarebbero aumentati di questa quantità. Tuttavia, i costi di calcolo per chiunque altro addestrerebbe un modello del genere sarebbero quasi certamente superiori a dieci milioni di dollari. E questo non include lo sviluppo e i test precedenti: non costruisci e addestri con successo uno di questi enormi modelli al primo tentativo!

Sebbene l'esecuzione di un modello pre-addestrato richieda molte meno risorse rispetto all'addestramento del modello, anche i requisiti hardware per l'esecuzione di GPT-4 sono significativi. Un modello di trilioni di parametri (probabilmente) richiede due trilioni di byte, ovvero due terabyte, di memoria, non spazio di archiviazione/su disco (sebbene anche quello), ma memoria reale – quando in uso, più memoria aggiuntiva per memorizzare ingressi, uscite e altri dati di lavoro. Se eseguito utilizzando le stesse unità di elaborazione di fascia alta impiegate nell'addestramento (molto probabilmente GPU NVIDIA A100 da 80 GB), il costo totale dei componenti per costruire una piattaforma hardware adatta a servire una singola istanza del modello sarebbe dell'ordine di un milione di dollari, e il consumo energetico di picco risultante sarebbe di circa 20kW (rendendo anche un condizionamento d'aria decente un requisito essenziale). E per servire migliaia di utenti contemporaneamente con tempi di risposta rapidi, è probabile che questa configurazione hardware debba essere replicata dozzine, se non centinaia, di volte. Non c'è da meravigliarsi, quindi, che OpenAI stia facendo pagare agli utenti per l'accesso premium a ChatGPT e per l'uso dell'API, e che gli utenti non paganti debbano sopportare prestazioni declassate!

Il punto finale, ovviamente, è che pochissimi utenti finali saranno in grado di ospitare la propria istanza di un modello come GPT-4. Piuttosto, faranno affidamento sui fornitori di cloud per ospitare i modelli e per offrire vari servizi, a prezzi diversi, a seconda delle esigenze dell'utente in termini di criteri quali prestazioni, privacy dei dati e sicurezza. E i maggiori fornitori di cloud computing sono, ovviamente, Microsoft (tramite la sua piattaforma Azure), Amazon (tramite Amazon Web Services, AWS) e Google (tramite Google Cloud Platform, GCP). Ciò darebbe a queste aziende una stretta mortale virtuale sulla fornitura di questi tipi di servizi di intelligenza artificiale.

Ma se fosse possibile costruire modelli più piccoli e non proprietari in grado di ottenere prestazioni paragonabili a modelli mostruosi come GPT-4? Si dà il caso che questa sia esattamente la direzione in cui sta andando la ricerca sugli LLM al di fuori di OpenAI. In un documento pubblicato nel febbraio 2023, LLaMA: modelli linguistici di base aperti ed efficienti, i ricercatori di Meta (ovvero Facebook) hanno segnalato modelli di addestramento con appena sette miliardi di parametri per ottenere prestazioni paragonabili ai più grandi LLM. Per di più, lo hanno fatto utilizzando 'set di dati pubblicamente disponibili esclusivamente, senza ricorrere a set di dati proprietari e inaccessibili' (come ha fatto OpenAI con i suoi modelli GPT). E affermano che una versione del modello LLaMA con 13 miliardi di parametri supera il modello GPT-175 da 3 miliardi di parametri sulla maggior parte dei benchmark. 

Il costo di formazione per questi modelli più piccoli è ancora molto elevato, circa 5 milioni di dollari (presupponendo 21 giorni di formazione su 2,048 GPU A100, come riportato nel documento LLaMA). Ma in un enorme "FU" per OpenAI, Meta ha reso open source il suo codice di addestramento e ha rilasciato tutti i suoi modelli addestrati alla comunità di ricerca. Sebbene intendesse farlo in modo controllato, l'addestrato i pesi dei modelli sono stati rapidamente trapelati su Internet, mettendoli a disposizione di tutti.

I modelli LLaMA sono dotati di condizioni di licenza che limitano l'uso commerciale. Tuttavia, ci sono già progetti, come RedPajama, in corso per replicare i risultati di Meta e creare modelli liberi da queste restrizioni. Allo stesso tempo, ci sono una serie di sforzi in corso per consentire a questi modelli più piccoli di essere eseguiti su prodotti (relativamente) economici e hardware di livello consumer. In questo momento potresti, se lo desideri, eseguire il tuo chatbot basato su LLM a casa, su un PC del valore inferiore a $ 3000. Non sarebbe buono come ChatGPT (prova Q8-Chat di Intel sulla piattaforma Hugging Face per avere un'idea di ciò che è possibile nella fascia bassa), ma lo sarebbe tutto tuo, completamente privato e sicuro e molto meglio di qualsiasi cosa tu abbia visto prima di novembre 2022!

Prevedo che questi progetti di ricerca basati sulla comunità avranno la meglio, con il risultato che la "Big AI" (vale a dire artisti del calibro di OpenAI/Microsoft e Google) non riuscirà a stabilire il quasi monopolio sui servizi basati sull'IA che sperano chiaramente ottenere. (Per motivi di equilibrio, tuttavia, Noto che non tutti condividono il mio ottimismo.) C'è solo una cosa, a mio avviso, che può fermare questa "democratizzazione" degli LLM: la regolamentazione. Se il governo degli Stati Uniti introducesse effettivamente un regime di licenze e test per "modelli di intelligenza artificiale al di sopra di una soglia di capacità" (qualunque cosa ciò significhi), non costituirebbe un vero ostacolo per aziende come OpenAI: hanno già trascorso anni costruire una reputazione come "custodi responsabili" della loro tecnologia, e hanno chiaramente il peso economico e politico per eliminare qualsiasi burocrazia normativa. Le aziende più piccole, i gruppi di ricerca e i progetti comunitari, d'altro canto, dovrebbero senza dubbio affrontare ostacoli significativi nel dimostrare le proprie credenziali e la propria buona fede al fine di ottenere l'approvazione normativa per sviluppare e implementare i propri sistemi di intelligenza artificiale.

In modo preoccupante, tuttavia, il mulino FUD sembra funzionare per Big AI. Il 6 giugno 2023, due membri della sottocommissione per la privacy, la tecnologia e la legge del Senato degli Stati Uniti hanno inviato una lettera [PDF, 187kB] al CEO di Meta Mark Zuckerberg. La lettera implica, senza sottigliezza, che la "fuga" dei pesi del modello LLaMA era un risultato prevedibile e forse previsto, e richiede "informazioni su come [Meta] ha valutato il rischio di rilasciare LLaMA, quali misure sono state intraprese per prevenire l'abuso del modello e come [Meta sta] aggiornando le [sue] politiche e pratiche in base alla disponibilità illimitata [del modello].' Le implicazioni delle numerose domande poste a Zuckerberg nella lettera dei senatori sono chiare: se non ci si può fidare delle aziende per agire in modo responsabile in relazione a potenti modelli di intelligenza artificiale, allora il governo dovrà intervenire per regolamentare il loro comportamento.

Chi beneficerà maggiormente dei diritti di proprietà intellettuale relativi all'intelligenza artificiale?

Tornando alla discussione sulla proprietà intellettuale, lo stesso si può dire di qualsiasi proposta per "rafforzare" i diritti di proprietà intellettuale. Ciò potrebbe essere preteso per proteggere gli interessi dei creatori e degli innovatori, ma in realtà potrebbe semplicemente consegnare più potere alle grandi società tecnologiche oligopolistiche che, ancora una volta, cercheranno di acquisire e accumulare tutti i diritti che possono, il più a buon mercato possibile possono e li usano per estorcere rendite dal resto di noi ogni volta che vogliamo usare la tecnologia che controllano.

Se è necessaria una licenza per utilizzare materiali protetti da copyright per addestrare modelli di intelligenza artificiale, allora gli unici che saranno in grado di addestrare modelli di intelligenza artificiale sono quelli che hanno i soldi e l'influenza per negoziare, intentare causa e/o pagare per licenze per enormi volumi di contenuti . Storia – e Il capitalismo di Chokepoint – ci insegna che i creatori non saranno i principali beneficiari di queste licenze. I diritti musicali più preziosi sono già controllati da una manciata di etichette discografiche; i diritti sui libri più preziosi sono già controllati da una manciata di editori; le notizie di maggior valore, i contenuti televisivi e cinematografici sono già controllati da una manciata di società di media; i database di immagini più utili e ben strutturati sono controllati da una manciata di società di immagini stock; e la maggior parte del contenuto rimanente su Internet è creato da individui e aziende che lo hanno, implicitamente se non espressamente, ceduto al mondo perché ne faccia ciò che vuole.

Quindi, prima di tutto, proteggere l'uso dei materiali protetti da copyright per addestrare i modelli di intelligenza artificiale aggiunge semplicemente un'altra fonte di entrate alle aziende che già sfruttano i modelli di business dei punti di strozzatura, senza avvantaggiare in modo significativo i creatori di quei materiali. In altre parole, fornisce solo più soldi per il pranzo da rubare ai bambini vittime di bullismo!

Più o meno lo stesso vale per il riconoscimento dell'IA come autore o inventore e la concessione di diritti d'autore e brevetti per le creazioni generate dall'IA. Una visione ingenua – come quella promossa da Ryan Abbott e il Progetto inventore artificiale – vorrei che questo sarebbe 'incentivare la creazione di proprietà intellettuale incoraggiando lo sviluppo di computer creativi', e riconoscono il potenziale per i computer di 'superare gli inventori umani come fonte primaria di nuove scoperte'. Ma, ancora una volta, l'esperienza ci dice che i diritti di proprietà intellettuale più preziosi generalmente non finiscono per essere detenuti dai loro creatori umani, ma da società che impiegano i creatori umani o che successivamente acquisiscono i diritti. Ho già discusso esempi di aggregatori di diritti d'autore, mentre nella sfera dei brevetti ci sono entità di asserzione di brevetti (PAE) – o talvolta, in senso peggiorativo, patent 'trolls' – che accumulano diritti per estorcere diritti di licenza da presunti trasgressori. Quindi, se l'intelligenza artificiale può inventare e decidiamo di concedere i diritti di brevetto per le invenzioni generate dall'intelligenza artificiale, non potremmo semplicemente creare un nuovo modello di business per "entità di generazione di brevetti"? 

Abbott potrebbe avere ragione. La concessione di diritti d'autore e brevetti per creazioni generate da macchine potrebbe incentivare lo sviluppo di macchine creative. Ma non è questo il punto più importante. Ciò che conta è chi possiede e gestisce quei computer creativi e chi beneficia delle loro creazioni.

Conclusione: la necessità di un approccio integrato 

Giusto per essere chiari, nel caso in cui sembri che io stia sostenendo un'anarchia dell'IA completamente senza mani, senza regolamentazione, niente potrebbe essere più lontano dalla verità. Dobbiamo assolutamente regolamentare l'IA. Ma ciò che più deve essere regolamentato è come viene utilizzato, al contrario di come viene sviluppato, addestrato e distribuito. Non c'è dubbio che l'intelligenza artificiale comporti rischi reali per la società umana e il benessere, come la perdita di posti di lavoro, violazioni della privacy, deepfake, pregiudizi algoritmici e automazione delle armi. Queste preoccupazioni devono essere affrontate con un uso etico e responsabile dell'IA e senza dubbio richiederemo leggi e regolamenti per garantire che le aziende, i ricercatori e gli individui operino entro confini concordati e che ci siano conseguenze se non lo fanno.

Ma è inutile cercare di rimettere il genio nella bottiglia tentando di controllare come e da chi l'IA viene sviluppata e addestrata. Questo semplicemente non può funzionare. Mentre la maggior parte delle piccole aziende, istituti di ricerca e individui non hanno i soldi e le risorse per costruire e addestrare modelli di intelligenza artificiale più grandi e sofisticati, non mancano i cattivi attori, comprese le organizzazioni criminali e gli stati canaglia, con la capacità di farlo. Se criminalizziamo l'addestramento dei modelli di intelligenza artificiale, solo i criminali addestreranno i modelli di intelligenza artificiale. Tutti gli altri saranno esclusi e saranno alla mercé del numero relativamente piccolo di aziende tecnologiche dominanti a cui viene concessa l'autorizzazione e/o sono in grado di garantire l'accesso alle grandi quantità di dati di formazione necessari.

Con il rilascio di codice open source e modelli preaddestrati, intenzionalmente o meno, stiamo assistendo ai primi segni della democratizzazione dell'intelligenza artificiale sofisticata. Eppure due senatori statunitensi eletti democraticamente vogliono che Mark Zuckerberg spieghi quali misure ha intrapreso Meta "per tracciare la distribuzione, il riutilizzo e l'uso finale di LLaMA... compresi eventuali avvisi di rimozione DMCA, lettere di cessazione e cessazione o sforzi simili". E se le leggi esistenti sono inadeguate, allora sono sicuro che i senatori possono inventarne di nuove. Anche se non vorrei mettere loro delle idee in testa, che ne dici di rendere obbligatorio aggiungere il codice di tracciamento e uccidere a tutti i modelli distribuiti e applicare la crittografia e la gestione dei diritti digitali (DRM), in modo che anche il tentativo di decrittografare e decodificare il modelli sarebbe un atto potenzialmente criminale? Ciò fermerebbe i criminali o gli agenti nemici? No. Ma fermerebbe quasi tutti gli altri.

Quindi, se questo è il futuro che tutti vogliamo, allora dovremmo assolutamente regolamentare lo sviluppo, l'addestramento e la distribuzione dei modelli di intelligenza artificiale e perfezionare le nostre leggi sulla proprietà intellettuale per bloccare i diritti sugli input di addestramento e sugli output dei modelli distribuiti. Nel recente passato, questo tipo di approccio ha funzionato bene per la grande tecnologia, ma non così bene per la comunità più in generale.

Ma tornando alla consultazione australiana, il governo afferma che l'esclusione della PI nell'attuale documento di discussione va bene, perché si sta affrontando la PI in altre iniziative, come il Tavola rotonda ministeriale sul diritto d'autoree l'AI Working Group dell'Intellectual Property Policy Group di IP Australia. Anche se va tutto molto bene, nessuno di questi gruppi include un'ampia rappresentanza di parti interessate interessate alla tecnologia AI. I partecipanti alla Tavola rotonda ministeriale includono la maggior parte dei soliti grandi attori delle industrie del diritto d'autore, come le emittenti pubbliche e private e le testate giornalistiche, gli organismi rappresentativi del cinema, della musica, delle arti dello spettacolo e dell'editoria e la Copyright Agency. Le informazioni sull'IP Australia's Intellectual Property Policy Group sono più difficili da reperire. Tutto quello che so, tramite colleghi professionisti, è che include rappresentanti delle associazioni professionali di proprietà intellettuale FICPI ​​Australia e la Istituto degli avvocati specializzati in brevetti e marchi dell'Australia (IPTA).

Dovrete quindi scusare il mio scetticismo sul fatto che queste iniziative sulla PI prenderanno in adeguata considerazione l'interazione tra le leggi sulla PI e altre azioni normative e pratiche commerciali. Rivedere isolatamente il ruolo delle leggi sulla proprietà intellettuale è, a mio avviso, un errore. I diritti di proprietà intellettuale sono coinvolti in tutta la pipeline dell'IA, dalla selezione e aggregazione dei dati di addestramento fino agli output generati dal modello addestrato finale. Dovrebbero pertanto essere integrate anche in qualsiasi approccio alla regolamentazione dell'IA, per evitare conseguenze impreviste e interazioni tra le leggi sulla proprietà intellettuale e altri aspetti del quadro normativo.

Adottando un approccio frammentario, rischiamo di sbagliare la regolamentazione dell'IA. Per una volta, proviamo a non farlo.

spot_img

L'ultima intelligenza

spot_img