Zephyrnet-logotyp

Gen AI Music når 20 % framgång i kommersiella kort

Datum:

För närvarande är 20 % av musik skapad av generativ AI (gen AI) korrekt när det gäller att skriva musik för särskilda kommersiella kalsonger.

En studie gjord av ljudtestföretaget SoundOut och ljudvarumärkesbyrån Stephen Arnold Music (SAM) stödjer detta. Enligt studien kan människor fortfarande skriva musik som är mer tilltalande och känslomässigt sann än artificiell intelligens. Ändå kan AI hjälpa till i idéstadiet ganska bra i sitt nuvarande tillstånd.

Läs också: Kameran tar bort människor nakna för att väcka debatt om AI och integritet 

Forskare gav fyra briefs till Stable Audios gen-AI-plattform: att skapa musik som var djärv och vågad, inspirerande, rolig och udda, sentimental och medkännande. Varje brief som forskarna tittade på producerades sedan av plattformen fem gånger.

På korta kalsonger

Sammantaget presterade AI "rimligt bra", enligt forskarna, och den var "i stor utsträckning framgångsrik för de flesta kompositioner" när det gäller riktning.

Specifikt korta, "konsekventa" och "väljusterade" briefs och förfrågningar om musik att syftet att framkalla korrelerade känslomässiga attribut var de viktigaste faktorerna som bidrog till AI:s framgång. AI var mer benägna att misslyckas när den fick mer intrikata eller nyanserade trosor.

SoundOut VD David Courtier-Dutton sa att denna studie har avslöjat det AI "komponera efter siffror" är redan inte långt efter, även om människor fortfarande presterar bättre än AI på den känslomässiga fronten. Han tillade att AI inte var sämre än människor; det var helt enkelt inte lika bra, och de förutsåg att AI så småningom skulle kunna matcha de flesta mänskliga kompositörer med lite känslomässig finjustering.

Courtier-Dutton fortsatte med att säga att AI bara behöver veta hur man framkallar känslor hos människor; den behöver inte förstå känslor själv.

Han sade,

"AI kan komponera musik för att röra oss känslomässigt. Den kan nu göra detta tillräckligt exakt för kommersiellt bruk; det behöver bara lite mer teknisk empati.”

Använder AI i ljud

Genom att använda mänsklig perception, ett tidigare underutnyttjat verktyg, har forskare skapat en ny djupinlärningsmodell som lovar att förbättra ljudkvaliteten avsevärt i verkliga scenarier.

Forskare upptäckte att de kunde förbättra talkvaliteten som bestäms av objektiva mått genom att kombinera en talförbättringsmodell med människors subjektiva bedömningar av ljudkvalitet.

Den nya modellen presterade bättre än andra konventionella metoder för att minska mängden brusigt ljud - oönskade ljud som kan störa det lyssnaren försöker höra. Mest anmärkningsvärt upptäcktes att det fanns en stark korrelation mellan kvalitetspoängen som modellen förutspådde och de beslut som människor skulle fatta. 

Målet med detta studera var att förstärka tal som härrör från en enda ljudkanal, såsom en enda mikrofon eller monotal.

Men AI har redan tillämpats i audio industri. Till exempel introducerade Spotify nyligen "AI DJs.” AI är också till hjälp i utvecklingen av syntetiska röster, hyperpersonlig kreativitet, sofistikerad inriktning och många andra områden.

Colortext-grundaren Jason Brownlee sa till The Media Leader förra veckan att om smarta ljudkreativ kan flaska sin kunskap med AI och skala den till en supereffektiv, självlärande och självbetjänande annonsproduktionsplattform, är himlen gränsen.

Från och med nu rekommenderar SAM och SoundOut att använda AI under idéstadiet för att utveckla ljudvarumärke. 

"När man utvecklar kommersiellt redo musik för ledande varumärken, finns det ytterligare överväganden för att framkalla rätt känsla vid rätt tidpunkt", säger Chad Cook, chef för kreativ och marknadsföring på SAM. 

Den mänskliga beröringen har ett märkbart inflytande på prestanda, känslomässig timing, produktionskvalitet, mixning och mastering, bland andra aspekter.

plats_img

Senaste intelligens

plats_img