Zephyrnet-logo

Gen AI Music oppnår 20 % suksessrate i kommersielle kort

Dato:

Foreløpig er 20 % av musikken skapt av generativ AI (gen AI) nøyaktig når det gjelder å skrive musikk for spesielle kommersielle truser.

En studie utført av lydtestselskapet SoundOut og lydmerkebyrået Stephen Arnold Music (SAM) støtter dette. Ifølge studien kan folk fortsatt skrive musikk som er mer tiltalende og følelsesmessig sann enn kunstig intelligens. Ikke desto mindre kan AI hjelpe i idéstadiet ganske godt i sin nåværende tilstand.

Les også: Kamera stripper folk nakne for å vekke debatt om AI og personvern 

Forskere ga fire briefs til Stable Audios gen-AI-plattform: å lage musikk som var dristig og vågal, inspirerende, morsom og sære, sentimental og medfølende. Hver brief som forskerne så på ble deretter produsert av plattformen fem ganger.

På korte truser

Totalt sett presterte AI "rimelig bra," ifølge forskerne, og den var "stort sett vellykket for de fleste komposisjoner" når det gjelder retning.

Nærmere bestemt korte, "konsekvente" og "godt avstemte" truser og forespørsler om musikk som mål å fremkalle korrelerte emosjonelle egenskaper var hovedfaktorene som bidro til AIs suksess. AI var mer sannsynlig å mislykkes når den ble gitt mer intrikate eller nyanserte truser.

SoundOut-sjef David Courtier-Dutton uttalte at denne studien har avslørt det AI «komponere etter tall» er allerede ikke langt bak, selv om mennesker fortsatt utkonkurrerer AI på den følelsesmessige fronten. Han la til at AI ikke var dårligere enn mennesker; det var rett og slett ikke like bra, og de regnet med at AI til slutt ville kunne matche de fleste menneskelige komponister med litt emosjonell finjustering.

Courtier-Dutton fortsatte med å si at AI bare trenger å vite hvordan de kan fremkalle følelser hos mennesker; det trenger ikke å forstå følelser selv.

Han uttalte,

"AI kan komponere musikk for å bevege oss følelsesmessig. Det kan nå gjøre dette nøyaktig nok for kommersiell bruk; det trenger bare litt mer teknisk empati.»

Bruker AI i lyd

Ved å bruke menneskelig persepsjon, et tidligere underutnyttet verktøy, har forskere skapt en ny dyplæringsmodell som lover å forbedre lydkvaliteten betydelig i virkelige scenarier.

Forskere oppdaget at de kunne forbedre talekvaliteten som bestemt av objektive beregninger ved å kombinere en taleforbedringsmodell med folks subjektive vurderinger av lydkvalitet.

Den nye modellen presterte bedre enn andre konvensjonelle metoder for å redusere mengden støyende lyd - uønsket støy som kan forstyrre det lytteren prøver å høre. Mest bemerkelsesverdig ble det oppdaget at det var en sterk sammenheng mellom kvalitetsskårene som modellen forutså og beslutningene folk ville ta. 

Målet med dette studere var å forbedre tale som stammer fra en enkelt lydkanal, for eksempel en enkelt mikrofon eller mono tale.

Imidlertid har AI allerede blitt brukt i lyd industri. For eksempel introduserte Spotify nylig "AI DJs.AI er også nyttig i utviklingen av syntetiske stemmer, hyperpersonlig kreativitet, sofistikert målretting og mange andre områder.

Colortext-grunnlegger Jason Brownlee fortalte The Media Leader forrige uke at hvis smarte lydreklamer kan flaske kunnskapen sin med AI og skalere den til en supereffektiv, selvlærende og selvbetjent annonseproduksjonsplattform, er himmelen grensen.

Akkurat nå anbefaler SAM og SoundOut å bruke AI i idéstadiet med å utvikle lydmerkevarebygging. 

"Når man utvikler kommersiell-klar musikk for ledende merkevarer, er det flere hensyn for å fremkalle de riktige følelsene til rett tid," sa Chad Cook, president for kreativ og markedsføring i SAM. 

Den menneskelige berøringen har en merkbar innflytelse på ytelse, emosjonell timing, produksjonskvalitet, miksing og mestring, blant andre aspekter.

spot_img

Siste etterretning

spot_img