Zephyrnet-Logo

Deepfake Detection wirft problematisches Technologierennen auf

Datum:

Experten setzen auf lange Sicht wenig Hoffnung auf eine robuste technische Lösung.

Angesichts der zunehmenden Desinformationsbedenken im Zuge der bevorstehenden US-Präsidentschaftswahlen untersuchen Industrie- und akademische Forscher weiterhin Möglichkeiten, irreführende oder gefälschte Inhalte zu erkennen, die mithilfe von tiefen neuronalen Netzen, sogenannten „Deepfakes“, erzeugt wurden.

Während es Erfolge gab - zum Beispiel hat die Konzentration auf Artefakte wie das unnatürliche Blinzeln der Augen zu hohen Genauigkeitsraten geführt -, bleibt ein Schlüsselproblem beim Wettrüsten zwischen Angreifern und Verteidigern bestehen: Die neuronalen Netze, die zur Erstellung von Deepfake-Videos verwendet werden, werden automatisch getestet gegen eine Vielzahl von Techniken zur Erkennung manipulierter Medien, und die neuesten defensiven Erkennungstechnologien können leicht aufgenommen werden. Die Rückkopplungsschleife, die zum Erstellen von Deepfakes verwendet wird, ähnelt im Ansatz - wenn nicht in der Technologie - den vollständig nicht nachweisbaren Diensten (FUD), mit denen Malware automatisch verschlüsselt werden kann, um signaturbasierter Erkennungstechnologie auszuweichen.

Das Erkennen von Artefakten ist letztendlich ein Verlust, sagt Yisroel Mirsky, Postdoktorand für Cybersicherheit am Georgia Institute of Technology und Mitautor eines Papiers, das die aktueller Stand der Deepfake-Erstellungs- und Erkennungstechnologien.

"Die defensive Seite macht alle das Gleiche", sagt er. „Sie suchen entweder nach einer Art Artefakt, das für den Deepfake-Generator spezifisch ist, oder sie wenden einen generischen Klassifikator für die eine oder andere Architektur an. Wir müssen uns Lösungen ansehen, die außerhalb der Band liegen. “

Das Problem ist unter Forschern bekannt. Nehmen Sie die Ankündigung von Microsoft am 1. September eines Tools zur Erkennung von gefälschten Videos. Der Microsoft Video Authenticator erkennt mögliche Deepfakes, indem er die Grenze zwischen eingefügten Bildern und dem Originalvideo ermittelt und eine Punktzahl für das abgespielte Video bereitstellt.

Während die Technologie veröffentlicht wird, um Probleme während des Wahlzyklus zu erkennen, warnte Microsoft, dass sich Desinformationsgruppen schnell anpassen werden.

"Die Tatsache, dass [die Bilder] von KI erzeugt werden, die weiter lernen kann, macht es unvermeidlich, dass sie die herkömmliche Erkennungstechnologie übertreffen", sagte Tom Burt, Corporate Vice President für Kundensicherheit und -vertrauen, und Eric Horvitz, wissenschaftlicher Leiter. in einem Blog-Beitrag, der die Technologie beschreibt. "Kurzfristig, wie bei den bevorstehenden Wahlen in den USA, können fortschrittliche Erkennungstechnologien jedoch ein nützliches Instrument sein, um anspruchsvolle Benutzer bei der Identifizierung von Deepfakes zu unterstützen."

Microsoft ist nicht der Einzige, der die aktuelle Deepfake-Erkennungstechnologie als vorübergehende Lösung betrachtet. Bei seiner Deep Fake Detection Challenge (DFC) im Frühsommer stellte Facebook fest, dass der Gewinnalgorithmus nur in etwa zwei Dritteln der Fälle gefälschte Videos genau erkannte. 

"Die DFDC-Ergebnisse zeigen auch, dass dies immer noch ein ungelöstes Problem ist", so das Unternehmen sagte in seiner Ankündigung. "Keiner der 2,114 Teilnehmer, zu denen führende Experten aus der ganzen Welt gehörten, erreichte eine 70-prozentige Genauigkeit bei unsichtbaren Deepfakes im Black-Box-Datensatz." 

Die Konkurrenz zwischen Angreifern und Verteidigern als „Wettrüsten“ zu bezeichnen, ist eine Fehlbezeichnung, da die technologischen Fortschritte wahrscheinlich dazu führen werden, dass realistische gefälschte Videos, die von der Technologie nicht erkannt werden können, in Zukunft nicht allzu weit Realität werden. sagt Alex Engler, der Rubenstein Fellow für Governance-Studien am Brookings Institute, einem Think Tank für Politik.

„Wir haben keine dramatische Verbesserung bei Deepfakes festgestellt, und wir haben kein wirklich überzeugendes Deepfake-Video, aber bin ich hinsichtlich der langfristigen Perspektive optimistisch? Nicht wirklich “, sagt er. „Sie werden besser werden. Letztendlich wird es keinen empirischen Weg geben, um den Unterschied zwischen einem Deepfake und einem legitimen Video zu erkennen. “

In ein StrategiepapierEngler argumentierte, dass die politischen Entscheidungsträger für die Zukunft planen müssen, wenn Deepfake-Technologie weit verbreitet und hochentwickelt ist.

Auf der technischen Seite gibt es wie in der Anti-Malware-Branche zwei wahrscheinliche Wege, die die Erkennung von Deepfakes einschlagen wird. Einige Unternehmen erstellen Möglichkeiten zum Signieren von Videos als Beweis dafür, dass sie nicht geändert wurden. Microsoft hat beispielsweise eine Signaturtechnologie mit einem Browser-Plug-In vorgestellt, mit der das Unternehmen die Legitimität von Videos überprüfen kann.  

"Langfristig müssen wir nach stärkeren Methoden suchen, um die Echtheit von Nachrichtenartikeln und anderen Medien zu erhalten und zu zertifizieren", schrieben Burt und Hovitz. "Es gibt heute nur wenige Tools, mit denen die Leser sicherstellen können, dass die Medien, die sie online sehen, aus einer vertrauenswürdigen Quelle stammen und nicht geändert wurden." 

Ein weiterer Weg der Forschung besteht darin, nach anderen Anzeichen dafür zu suchen, dass ein Video geändert wurde. Mit Algorithmen für maschinelles Lernen, mit denen Videos in eine Reihe von Inhalten und Metadaten umgewandelt werden können - von der Transkription einer beliebigen Sprache im Video bis zum Ort, an dem das Video aufgenommen wurde - könnte die Erstellung inhaltsbasierter Erkennungsalgorithmen eine Möglichkeit sein, so Mirsky von Georgia Tech sagt. 

"Genau wie bei Malware ist es hilfreich, wenn Sie über eine Technik verfügen, mit der der tatsächliche Inhalt angezeigt werden kann", sagt er. „Es ist sehr wichtig, weil es die Messlatte für den Angreifer höher legt. Sie können 90% der Angriffe abwehren, aber das Problem ist, dass es für einen Gegner wie einen nationalstaatlichen Schauspieler, der viel Zeit und Mühe hat, die Deepfake zu verfeinern, sehr, sehr schwierig wird, diese Angriffe zu erkennen. “

Veteran Technologiejournalist von mehr als 20 Jahren. Ehemaliger Forschungsingenieur. Geschrieben für mehr als zwei Dutzend Veröffentlichungen, darunter CNET News.com, Dark Reading, MITs Technology Review, Popular Science und Wired News. Fünf Auszeichnungen für Journalismus, darunter Best Deadline… Vollständige Biographie anzeigen

Empfohlene Lektüre:

Weitere Einblicke

Quelle: https://www.darkreading.com/analytics/deepfake-detection-poses-problematic-technology-race/d/d-id/1338953?_mc=rss_x_drr_edt_aud_dr_x_x-rss-simple

spot_img

Neueste Intelligenz

spot_img

Chat mit uns

Hallo! Wie kann ich dir helfen?