Logo Zephyrnet

Microsoft svela la tecnologia deepfake che è troppo bella per essere rilasciata

Data:

Microsoft questa settimana ha presentato una demo di VASA-1, un framework per creare video di persone che parlano da un'immagine fissa, un campione audio e uno script di testo, e afferma, giustamente, che è troppo pericoloso per essere rilasciato al pubblico.

Questi video generati dall'intelligenza artificiale, in cui le persone possono essere animate in modo convincente per pronunciare parole scritte con una voce clonata, sono proprio il genere di cose che la Federal Trade Commission degli Stati Uniti messo in guardia il mese scorso, dopo in precedenza proporre una regola per impedire che la tecnologia dell’intelligenza artificiale venga utilizzata per frodi legate all’impersonificazione.

Il team di Microsoft lo riconosce nel proprio annuncio, il che spiega che la tecnologia non viene rilasciata per considerazioni etiche. Insistono sul fatto che stanno presentando una ricerca per generare personaggi virtuali interattivi e non per impersonare qualcuno. Pertanto, non è previsto alcun prodotto o API.

"La nostra ricerca si concentra sulla generazione di abilità visuo-affettive per avatar virtuali di intelligenza artificiale, puntando ad applicazioni positive", affermano gli esperti di Redmond. “Non è inteso creare contenuti utilizzati per fuorviare o ingannare.

“Tuttavia, come altre tecniche correlate alla generazione di contenuti, potrebbe ancora essere potenzialmente utilizzata in modo improprio per impersonare esseri umani. Siamo contrari a qualsiasi comportamento volto a creare contenuti fuorvianti o dannosi per persone reali e siamo interessati ad applicare la nostra tecnica per migliorare il rilevamento delle contraffazioni”.

Lo ha detto Kevin Surace, presidente di Token, un'azienda di autenticazione biometrica e frequente relatore sull'intelligenza artificiale generativa Il registro in un'e-mail si afferma che, nonostante ci siano state precedenti dimostrazioni tecnologiche di volti animati da un fermo immagine e da un file vocale clonato, la dimostrazione di Microsoft riflette lo stato dell'arte.

"Le implicazioni per la personalizzazione delle e-mail e di altre comunicazioni di massa aziendali sono favolose", ha affermato. “Anche animando anche le immagini più vecchie. In una certa misura questo è semplicemente divertente e in un altro ha solide applicazioni aziendali che utilizzeremo tutti nei prossimi mesi e anni.

Il "divertimento" dei deepfake era per il 96% porno non consensuale, quando valutato [PDF] nel 2019 dalla società di sicurezza informatica Deeptrace.

Tuttavia, i ricercatori di Microsoft suggeriscono che essere in grado di creare persone dall'aspetto realistico e mettere loro in bocca le parole ha usi positivi.

"Tale tecnologia mantiene la promessa di arricchire la comunicazione digitale, aumentare l'accessibilità per le persone con disabilità comunicative, trasformare l'istruzione, metodi con tutoraggio interattivo basato sull'intelligenza artificiale e fornire supporto terapeutico e interazione sociale nell'assistenza sanitaria", propongono in un articolo documento di ricerca che non contenga le parole “porno” o “disinformazione”.

Sebbene sia discutibile, il video generato dall'intelligenza artificiale non è esattamente la stessa cosa di un deepfake, quest'ultimo definito mediante la manipolazione digitale in contrapposizione a un metodo generativo, la distinzione diventa irrilevante quando è possibile evocare un falso convincente senza innesto di copia e incolla.

Alla domanda su cosa pensa del fatto che Microsoft non rilasci questa tecnologia al pubblico per paura di un uso improprio, Surace ha espresso dubbi sulla fattibilità delle restrizioni.

"Microsoft e altri si sono trattenuti per ora finché non avranno risolto i problemi di privacy e utilizzo", ha affermato. "Come si regolerà chi lo utilizza per le giuste ragioni?"

Surace ha aggiunto che esistono già modelli open source altrettanto sofisticati, sottolinea EMO. "Si può estrarre il codice sorgente da GitHub e costruire attorno ad esso un servizio che probabilmente rivaleggerebbe con l'output di Microsoft", ha osservato. "A causa della natura open source dello spazio, regolamentarlo sarà in ogni caso impossibile."

Detto questo, i paesi di tutto il mondo stanno cercando di regolamentare le persone fabbricate dall’intelligenza artificiale. Canada, Cina, e il UK, tra le altre nazioni, tutte dispongono di normative che possono essere applicate ai deepfake, alcune delle quali soddisfano obiettivi politici più ampi. Gran Bretagna proprio questa settimana reso illegale per creare un'immagine deepfake sessualmente esplicita senza consenso. La condivisione di tali immagini era già vietata dall'Online Safety Act del 2023 del Regno Unito.

A gennaio, un gruppo bipartisan di legislatori statunitensi introdotto il Disrupt Explicit Forged Images and Non-Consensual Edits Act del 2024 (DEFIANCE Act), un disegno di legge che crea un modo per le vittime di immagini deepfake non consensuali di presentare una causa civile in tribunale.

E martedì 16 aprile, la commissione giudiziaria del Senato degli Stati Uniti, sottocommissione per la privacy, la tecnologia e la legge, ha tenuto un'udienza intitolato “Supervisione dell’intelligenza artificiale: deepfakes elettorali”.

Nelle osservazioni preparate, Rijul Gupta, CEO di DeepMedia, un'azienda di rilevamento di deepfake, ha dichiarato:

[L]'aspetto più allarmante dei deepfake è la loro capacità di fornire ai malintenzionati una negabilità plausibile, consentendo loro di liquidare i contenuti autentici come falsi. Questa erosione della fiducia pubblica colpisce il nucleo stesso del nostro tessuto sociale e le fondamenta della nostra democrazia. Il cervello umano, programmato per credere a ciò che vede e sente, è particolarmente vulnerabile all’inganno dei deepfake. Man mano che queste tecnologie diventano sempre più sofisticate, minacciano di minare il senso condiviso della realtà che è alla base della nostra società, creando un clima di incertezza e scetticismo in cui i cittadini sono lasciati a dubitare della veridicità di ogni informazione che incontrano.

Ma pensiamo alle applicazioni di marketing. ®

spot_img

L'ultima intelligenza

spot_img