Zephyrnet-Logo

Gen AI Music erreicht 20 % Erfolgsquote bei kommerziellen Briefings

Datum:

Derzeit sind 20 % der von generativer KI (gen AI) erstellten Musik präzise, ​​wenn es darum geht, Musik für bestimmte Werbeaufträge zu schreiben.

Eine Studie des Klangtestunternehmens SoundOut und der Sound-Branding-Agentur Stephen Arnold Music (SAM) unterstützt dies. Der Studie zufolge können Menschen immer noch Musik schreiben, die ansprechender und emotional wahrer ist als künstliche Intelligenz. Nichtsdestotrotz kann KI in ihrem aktuellen Zustand die Ideenfindungsphase recht gut unterstützen.

Lies auch: Kamera zieht Menschen nackt aus, um Debatte über KI und Datenschutz auszulösen 

Die Forscher gaben der Gen-KI-Plattform von Stable Audio vier Vorgaben: Musik zu schaffen, die mutig und gewagt, inspirierend, lustig und schrullig, sentimental und mitfühlend ist. Jeder Brief, den sich die Forscher ansahen, wurde dann fünfmal von der Plattform erstellt.

Auf kurzen Slips

Insgesamt schnitt die KI laut den Forschern „ziemlich gut“ ab und war hinsichtlich der Richtung „bei den meisten Kompositionen weitgehend erfolgreich“.

Insbesondere kurze, „konsistente“ und „gut abgestimmte“ Briefings und Anfragen für Musik die darauf abzielen, korrelierte emotionale Eigenschaften hervorzurufen, waren die Hauptfaktoren, die zum Erfolg der KI beitrugen. Es war wahrscheinlicher, dass die KI scheiterte, wenn sie kompliziertere oder differenziertere Aufgabenstellungen erhielt.

David Courtier-Dutton, CEO von SoundOut, erklärte, dass diese Studie dies ergeben habe AI „Komponieren nach Zahlen“ ist bereits nicht mehr weit entfernt, auch wenn der Mensch die KI auf emotionaler Ebene immer noch übertrifft. Er fügte hinzu, dass KI dem Menschen nicht unterlegen sei; es war einfach nicht so gut, und sie gingen davon aus, dass die KI mit ein wenig emotionaler Feinabstimmung irgendwann in der Lage sein würde, mit den meisten menschlichen Komponisten mithalten zu können.

Courtier-Dutton führte weiter aus, dass die KI lediglich wissen müsse, wie sie bei Menschen Emotionen hervorrufe; Es muss Emotionen nicht selbst verstehen.

Er erklärte,

„KI kann Musik komponieren, die uns emotional berührt. Für den kommerziellen Einsatz ist dies nun präzise genug möglich; Es braucht einfach etwas mehr technisches Einfühlungsvermögen.“

Verwendung von KI im Audiobereich

Durch die Nutzung der menschlichen Wahrnehmung, eines bisher wenig genutzten Werkzeugs, haben Forscher ein neues Deep-Learning-Modell entwickelt, das eine deutliche Verbesserung der Audioqualität in realen Szenarien verspricht.

Forscher fanden heraus, dass sie die Sprachqualität anhand objektiver Messwerte verbessern konnten, indem sie ein Sprachverbesserungsmodell mit den subjektiven Einschätzungen der Klangqualität durch Menschen kombinierten.

Das neue Modell schnitt bei der Reduzierung von Störgeräuschen besser ab als andere herkömmliche Methoden – unerwünschte Geräusche, die das, was der Zuhörer hören möchte, beeinträchtigen könnten. Vor allem wurde festgestellt, dass eine starke Korrelation zwischen den vom Modell vorhergesagten Qualitätswerten und den Entscheidungen, die die Menschen treffen würden, besteht. 

Das Ziel davon Studie bestand darin, Sprache zu verbessern, die von einem einzelnen Audiokanal stammt, beispielsweise einem einzelnen Mikrofon oder monauraler Sprache.

KI wurde jedoch bereits in der eingesetzt Audio- Industrie. Beispielsweise hat Spotify kürzlich „KI-DJs.„KI ist auch bei der Entwicklung synthetischer Stimmen, hyperpersonalisierter Kreativität, anspruchsvollem Targeting und vielen anderen Bereichen hilfreich.“

Der Gründer von Colortext, Jason Brownlee, sagte gegenüber The Media Leader letzte Woche, dass es keine Grenzen mehr gibt, wenn clevere Audio-Kreative ihr Wissen mithilfe von KI in eine hocheffiziente, selbstlernende und Self-Service-Plattform für die Anzeigenproduktion umwandeln können.

Derzeit empfehlen SAM und SoundOut den Einsatz von KI in der Ideenfindungsphase der Entwicklung eines Sound-Brandings. 

„Bei der Entwicklung kommerziell nutzbarer Musik für führende Marken gibt es zusätzliche Überlegungen, die richtigen Emotionen zur richtigen Zeit hervorzurufen“, erklärte Chad Cook, Präsident für Kreativität und Marketing bei SAM. 

Die menschliche Note hat unter anderem einen spürbaren Einfluss auf Leistung, emotionales Timing, Produktionsqualität, Mischung und Mastering.

spot_img

Neueste Intelligenz

spot_img