Logo Zephyrnet

YouTube sperimenta la musica creata dall'intelligenza artificiale in test selezionati

Data:

YouTube sta sperimentando un software che genera musica utilizzando un modello di intelligenza artificiale chiamato Lyria creato da Google DeepMind.

Il colosso dell'home video di proprietà di Google ha annunciato giovedì due funzionalità che sta proponendo a un piccolo gruppo di tester: Dream Track e Music AI Tool. 

Dream Track converte un messaggio basato su testo in un breve frammento audio che imita la voce e lo stile di varie pop star, ovvero Alec Benjamin, Charlie Puth, Charli XCX, Demi Lovato, John Legend, Sia, T-Pain, Troye Sivan e Papoose. La scelta dell'artista è finora limitata a questi artisti perché Google ha dovuto negoziare le licenze per addestrare Lyria sulla loro musica per evitare una guerra sul copyright.

Di seguito puoi ascoltare ciò che Dream Track genera per il messaggio "una mattina soleggiata in Florida, R&B" nello stile di T-Pain, un artista noto per alterare la sua voce con l'autotune. 

Youtube Video

Sembra certamente T-Pain, e anche i testi sono appropriati e corrispondono al suggerimento. Dream Track è attualmente disponibile solo per "un gruppo limitato di creatori" che possono generare clip di 30 secondi di brani realizzati dall'intelligenza artificiale che possono essere pubblicati come YouTube Shorts, in genere video della durata di un minuto. 

Lo strumento Music AI sembra più interessante e utile. Permette alle persone, in particolare a quelle senza nessuno o molti strumenti, di trasformare una clip audio – come un accordo o qualcuno che canticchia una melodia – in qualcosa che conserva il suono originale ma suonato sotto forma di un altro strumento. 

La demo più impressionante, forse, converte un mucchio di suoni cantati "na-na-na" in una partitura orchestrale, completa di strumenti a corda che sembra potrebbe essere una colonna sonora in qualche modo convincente per un film. Puoi ascoltarlo qui sotto.

Youtube Video

YouTube condivide Music AI Tool solo con artisti, cantautori e produttori selezionati che in questo momento fanno parte del suo programma Music AI Incubator. 

Music AI Tool consente alle persone di creare musica in nuove forme senza dover saper cantare o suonare strumenti musicali particolarmente bene, proprio come chiunque può utilizzare modelli testo-immagine per generare opere d'arte senza dover sapere come disegnare o dipingere.

Ci ricorda un po’ anni fa, con l’avvento della musica elettronica, quando i cinici lamentavano che i sintetizzatori e il sequencing assistito dal computer permettessero a chiunque di sfornare tracce come i cosiddetti veri musicisti.

“Questi esperimenti esplorano il potenziale delle funzionalità dell’intelligenza artificiale per aiutare artisti e creatori ad ampliare la propria immaginazione e ad aumentare i propri processi creativi”, ha spiegato Lyor Cohen e Toni Reid di YouTube, rispettivamente responsabile globale della musica e vicepresidente delle esperienze emergenti e dei prodotti per la community.

“E a loro volta, i fan potranno connettersi con i creativi che amano in nuovi modi, avvicinandoli attraverso strumenti ed esperienze interattive. Tutto ciò ci aiuterà a ripetere e migliorare la tecnologia, informando le applicazioni per il futuro”.

L’intelligenza artificiale generativa e la musica, tuttavia, sono particolarmente complicate. Non solo è difficile costruire modelli in grado di creare audio che suoni davvero bene, ma è difficile anche proteggere i dati per addestrare i sistemi. Le etichette discografiche sono notoriamente litigiose quando si tratta di proteggere i propri diritti d'autore, come YouTube sa molto bene. Il sito di video ha affermato che sta lavorando per risolvere questi problemi e sta cercando di stipulare accordi di licenza per compensare gli artisti per la loro musica. 

“Nonostante le enormi opportunità offerte dall’intelligenza artificiale, riconosciamo anche che si tratta di uno spazio in rapida evoluzione che presenta sfide complesse. Uno dei maggiori punti di forza di YouTube sono i nostri forti rapporti con i partner dell'industria musicale. Ci impegniamo a collaborare con loro mentre entriamo in questa nuova era, esplorando insieme in modo critico nuove opportunità e sviluppando controlli sensibili e sostenibili, quadri di monetizzazione e attribuzione”, hanno aggiunto Cohen e Reid.

Nel frattempo, i ricercatori di Google DeepMind stanno affrontando il problema dell’audio falso generato dall’intelligenza artificiale che potrebbe essere utilizzato per manipolare o fuorviare gli ascoltatori. Le tracce create utilizzando il suo modello Lyria porteranno filigrane impercettibili dal suo strumento SynthID utilizzato per identificare il contenuto sintetico. SynthID a quanto pare funziona convertendo i dati audio in uno spettrogramma bidimensionale, applicando una filigrana digitale a quella rappresentazione e riconvertendola in audio.

“La filigrana è progettata per mantenere la rilevabilità anche quando il contenuto audio subisce molte modifiche comuni come aggiunte di rumore, compressione MP3 o accelerazione e rallentamento della traccia. SynthID può anche rilevare la presenza di una filigrana in una traccia per aiutare a determinare se parti di una canzone sono state generate da Lyria”, DeepMind ha spiegato. ®

spot_img

L'ultima intelligenza

spot_img