Logo Zephyrnet

I legislatori dell’UE si schierano per difendere la prima legge sull’intelligenza artificiale al mondo

Data:

Il Parlamento europeo ha promulgato la prima legislazione al mondo progettata specificamente per affrontare il rischio dell’intelligenza artificiale, compresa la categorizzazione biometrica e la manipolazione del comportamento umano, nonché regole più severe per l’introduzione dell’intelligenza artificiale generativa.

Con un voto di questa mattina, i membri del Parlamento europeo hanno approvato il testo finale della legge, che è progettata per proteggere il pubblico nel campo in rapido sviluppo dei modelli di intelligenza artificiale per scopi generali (GPAI) – un termine usato nella legge per comprendere i modelli generativi IA come ChatGPT. I modelli di intelligenza artificiale dovranno inoltre rispettare gli obblighi di trasparenza e le norme dell’UE sul diritto d’autore. I modelli più potenti dovranno affrontare ulteriori requisiti di sicurezza.

La legge richiederà che i contenuti online che utilizzano l’intelligenza artificiale per falsificare persone ed eventi reali siano chiaramente etichettati anziché ingannare le persone con “deepfake”.

Mentre i critici sostengono che le regole sono state annacquate all’ultimo minuto, suggerendo addirittura di esercitare pressioni da parte dei giganti tecnologici statunitensi tramite partner europei per modificare la legislazione, l’analista principale di Forrester Enza Iannopollo ha affermato che si tratta di un compromesso necessario per far promulgare le leggi.

“C’è l’opportunità per l’UE di tornare indietro e provare a rivedere alcune parti degli allegati. Penso che sia un compromesso. Avrebbe potuto essere migliore? SÌ. È stata una buona idea aspettare più a lungo? Io davvero non la penso così", ha detto Il registro.

Secondo Bloomberg, i governi francese e tedesco sono intervenuti con norme più severe per proteggere le aziende nostrane Mistral AI e Aleph Alpha. Altri lo hanno notato Mistral ha accettato un investimento di 15 milioni di euro (16.3 milioni di dollari) da Microsoft.

Il gruppo promotore Corporate Europe Observatory ha espresso preoccupazione riguardo all’influenza che le Big Tech e le aziende europee hanno avuto nella stesura del testo finale.

I Lo ha affermato il garante europeo della protezione dei dati è rimasto deluso dal testo finale, definendolo una “occasione mancata per stabilire un quadro giuridico forte ed efficace” per la protezione dei diritti umani nello sviluppo dell’IA.

Tuttavia, in una conferenza stampa tenutasi prima del voto, i politici responsabili dei negoziati sul testo hanno affermato di aver raggiunto un equilibrio tra la tutela dei cittadini e la possibilità di innovare le imprese.

Brando Benifei, del partito dei Socialisti e Democratici italiani, ha affermato che i legislatori si sono opposti ai lobbisti. “Il risultato parla da solo. La legislazione definisce chiaramente la necessità di sicurezza dei modelli più potenti con criteri chiari. Abbiamo realizzato un quadro chiaro che garantirà requisiti di trasparenza e sicurezza per i modelli più potenti”.

Benifei ha detto che allo stesso tempo, il concetto di sandbox [PDF] consente alle aziende di sviluppare nuovi prodotti sotto la supervisione di un regolatore e aiuterebbe l'innovazione.

“Nel nostro impegno come Parlamento volto ad avere un sandbox obbligatorio in tutti gli Stati membri per consentire alle imprese di sperimentare e svilupparsi, abbiamo infatti scelto una strada molto favorevole all’innovazione. Se si guardano i sondaggi, troppi cittadini in Europa sono scettici sull’uso dell’intelligenza artificiale e questo rappresenta uno svantaggio competitivo e soffocerebbe l’innovazione. Vogliamo invece che i nostri cittadini sappiano che grazie alle nostre regole possiamo tutelarli e che possono avere fiducia nelle imprese che svilupperanno l’IA in Europa. Ciò, di fatto, supporta l’innovazione”.

Dragoş Tudorache, del partito Renew, Romania, ha detto che i legislatori hanno resistito alle pressioni, soprattutto per quanto riguarda la violazione del diritto d'autore.

A settembre la Gilda degli autori e 17 scrittori ha intentato una class action negli Stati Uniti per l'utilizzo del proprio materiale da parte di OpenAI per creare i propri servizi basati su LLM.

“Chiaramente, tutti coloro che sviluppano questi modelli avevano interesse a mantenere una scatola nera quando si tratta dei dati che entrano in questi algoritmi. Invece abbiamo promosso l’idea di trasparenza soprattutto per il materiale protetto da copyright perché pensavamo che fosse l’unico modo per dare effetto ai diritti d’autore”, ha detto Tudorache.

Iannopollo di Forrester ha affermato: “Si tratta di un atto legislativo molto complesso. Sono molti i settori in cui la legislazione avrebbe potuto essere migliorata. Il primo riguarda sicuramente i requisiti per l'IA per scopi generali che è stata aggiunta in una fase successiva e sembra decisamente meno forte dell'approccio basato sul rischio.

“Ma dobbiamo essere realistici. La tecnologia si sta evolvendo molto rapidamente, quindi è molto difficile creare un atto legislativo che sia semplicemente perfetto… C’è più rischio nel ritardare la legislazione nel tentativo di migliorarla [rispetto alle imperfezioni]”.

C'è un desiderio tra i politici europei di rivedere e rafforzare la legislazione, in particolare in termini di protezione del copyright, ha affermato. ®

spot_img

L'ultima intelligenza

spot_img