Zephyrnet-Logo

FTC bietet Bargeld für die besten Ideen, um das Klonen von KI-Stimmen zu verhindern

Datum:

Die Federal Trade Commission (FTC) verspricht eine Belohnung von 25,000 US-Dollar für die beste Lösung zur Bekämpfung der wachsenden Bedrohung durch das Klonen von KI-Stimmen.

Mitunter auch als Audio-Deepfakes bezeichnet, ist die Zahl der Online-Dienste, die benutzerfreundliche Funktionen zum Klonen von Stimmen anbieten, gestiegen, seit generative KI zum Mainstream geworden ist, was Bedenken hinsichtlich ihres Potenzials für Missbrauch bei Cyberangriffen aufkommen lässt.

Eine weit verbreitete Bedrohung könnte beispielsweise darin bestehen, die Stimmen von CEOs zu fälschen, um sich als diese auszugeben und die Finanzabteilung anzuweisen, Geld auf das Konto eines Angreifers zu überweisen. Auch Freunde und Familienangehörige könnten dazu verleitet werden, Geld an geliebte Menschen zu schicken darstellende Künstler Sollte die Technologie weiter ausgereift sein, könnten ihre Lebensgrundlagen gefährdet sein.

Interessierte Parteien haben bis zum 12. Januar Zeit, ihre Ideen zur Bekämpfung des KI-basierten Voice-Cloning-Betrugs einzureichen, wobei der Schwerpunkt hauptsächlich auf der Prävention, Überwachung und Bewertung der Technologie liegt.

„Diese Bemühungen können dazu beitragen, Ideen voranzutreiben, um Risiken im Vorfeld zu mindern und Verbraucher, Kreative und kleine Unternehmen vor den Schäden des Stimmenklonens zu schützen, bevor der Schaden den Verbraucher erreicht“, so die FTC sagte

„Es kann auch dazu beitragen, Ideen zur Risikominderung auf Verbraucherebene voranzutreiben. Und wenn keine realisierbaren Ideen auftauchen, wird dies eine kritische und frühzeitige Warnung an die politischen Entscheidungsträger sein, dass sie angesichts der Herausforderung, schädliche Entwicklungen von Anwendungen auf dem Markt zu verhindern, strengere Beschränkungen für den Einsatz dieser Technologie in Betracht ziehen sollten.“

Die Einreichungen werden unter anderem danach beurteilt, wie realisierbar die Durchführung und Verwaltung wäre, wie widerstandsfähig sie gegenüber technologischen Veränderungen ist und wie sorgfältig darüber nachgedacht wird, wie Haftung und Verantwortung den Unternehmen auferlegt würden.

Der angebotene Höchstpreis beträgt 25,000 US-Dollar, was angesichts der potenziellen breiten Einsatzmöglichkeiten einer genialen Lösung nicht gerade nach einer Goldgrube klingt.

Ein Zweitplatzierter erhält außerdem 4,000 US-Dollar, drei ehrenvolle Erwähnungen erhalten jeweils 2,000 US-Dollar für ihre Mühen und Organisationen mit 10 oder mehr Personen erhalten einen bargeldlosen Anerkennungspreis.

KI-Sprachmissbrauch in Aktion

Die Wirksamkeit des KI-Stimmenklonens wurde im vergangenen Jahr in wiederholten Fällen nachgewiesen. Experten des slowakischen Sicherheitsshops ESET zeigte wie das oben erwähnte Beispiel gefälschter CEOs durchgezogen werden kann.

Tatsächlich war es schon seit Jahren ein Problem, bevor generative KI in die Hände des Durchschnittsbürgers gelangte. Ein britisches Energieunternehmen war 243,000 US-Dollar abgezogen im Jahr 2019, nachdem sein CEO angewiesen wurde, eine große Summe an einen ungarischen Lieferanten zu senden.

Eine New York Times berichten, ebenfalls aus den vorangegangenen 12 Monaten, beschrieb eine Reihe von Fällen, die erfolgreich auf den Finanzsektor abzielten und Banken dazu verleiteten, Geld von Personen zu transferieren, von denen sie glaubten, sie seien echte Kunden. Er reg hat auch über Ähnliches berichtet Anschläge in den Vereinigten Arabischen Emiraten so weit zurück wie 2021.

Auch Liebesbetrügereien sind weit verbreitet, und ein Brite verliebt sich in einen hat Kevin Costner gefälscht, und Kriminelle haben auch gezeigt, dass sie sich nicht scheuen, etwas zu tun „Familiennotfall“-Betrug – solche, die Eltern mit den geklonten Stimmen ihrer Kinder ins Visier nehmen und beispielsweise um Geld für die Hinterlegung einer Kaution bitten.

Mehr finstere Beispiele haben gesehen, wie Mütter angeblich Anrufe von ihren Töchtern entgegennahmen, die von „Entführern“ als Geiseln gehalten wurden und hohe Lösegelder forderten.

Das Klonen von Stimmen wird ermöglicht, indem einem KI-Modell genügend Trainingsdaten zugeführt werden, um den Klang, den Ton, das Tempo, den Tonfall und andere Nuancen der Stimme einer Person zu verstehen. Es wird davon ausgegangen, dass Prominente und andere Persönlichkeiten des öffentlichen Lebens einem akuten Risiko dieser Angriffe ausgesetzt sind, da es im Internet zahlreiche Aufnahmen ihrer Stimmen gibt.

Mit dem Aufstieg der sozialen Medien und der Kultur der Erstellung von Videoinhalten verfügen auch viele Nicht-Prominente und sogar Kinder online über genügend Material, um ein Model effektiv zu trainieren.

Kaspersky-Forscher untersuchten im vergangenen Jahr den Anstieg des KI-Stimmenklonens und entdeckten eine Vielzahl frei verfügbarer Open-Source-Tools, die mithilfe von KI-Technologie geklonte Stimmen erzeugen konnten. Sie behaupteten jedoch, dass es ein wenig Python-Know-how und einiges Basteln seitens des Kloners erforderte, um einen überzeugenden Klon zum Laufen zu bringen.

Allerdings sind die kostenpflichtigen Angebote tendenziell deutlich effektiver. Die Forscher wiesen darauf hin Das VALL-E-Modell von Microsoft das könnte angeblich einen anständigen Klon mit nur drei Sekunden Sprachaudio erzeugen, das als Trainingsdaten verwendet wird.

Es gibt auch andere kostenpflichtige Lösungen, die besser funktionieren als die kostenlosen, aber diese befinden sich noch in einem frühen Entwicklungsstadium, sodass wir davon ausgehen können, dass sich die Genauigkeit und Wirksamkeit dieser Modelle im Laufe der Zeit verbessern wird. ®

spot_img

Neueste Intelligenz

spot_img