Zephyrnet-Logo

Deepfakes im globalen Wahljahr 2024: Eine Waffe der Massentäuschung?

Datum:

Digitale Sicherheit

Da erfundene Bilder, Videos und Audioclips von echten Menschen immer beliebter werden, gibt die Aussicht auf eine Flut von KI-gestützter Desinformation Anlass zu wachsender Besorgnis

Deepfakes im globalen Wahljahr 2024: Eine Waffe der Massentäuschung?

Seitdem dominieren Fake News die Schlagzeilen im Wahlkampf wurde zu einer großen Geschichte während des Rennens um das Weiße Haus im Jahr 2016. Aber acht Jahre später gibt es eine wohl größere Bedrohung: eine Kombination aus Desinformation und Deepfakes Das könnte selbst die Experten täuschen. Die Chancen stehen gut, dass es erst kürzlich passiert ist Beispiele von KI-generierten Inhalten zum Thema Wahlen – darunter eine Menge Bilder und Videos, die im Umlauf sind im Vorfeld der argentinischen Vorwahlen und einem manipuliertes Audio von US-Präsident Joe Biden – waren Vorboten dessen, was wahrscheinlich in größerem Maßstab kommen wird.

Mit rund einem Viertel der Weltbevölkerung Im Hinblick auf die Wahlen im Jahr 2024 nehmen die Bedenken zu, dass Desinformation und KI-gestützte Tricks von schändlichen Akteuren genutzt werden könnten, um die Ergebnisse zu beeinflussen, wobei viele Experten die Folgen befürchten, wenn Deepfakes zum Mainstream werden.

Die Bedrohung durch Deepfake-Desinformation

Wie bereits erwähnt, werden dieses Jahr nicht weniger als zwei Milliarden Menschen in ihre örtlichen Wahllokale gehen, um für ihre bevorzugten Vertreter und Staatsoberhäupter zu stimmen. Da große Wahlen in mehr als einem Land, einschließlich den USA, Großbritannien und Indien (sowie für das Europäische Parlament), stattfinden werden, hat dies das Potenzial, die politische Landschaft und Richtung der Geopolitik in den nächsten Jahren zu verändern – und darüber hinaus.

Gleichzeitig kam es jedoch in letzter Zeit zu Fehlinformationen und Desinformationen Platz vom Weltwirtschaftsforum (WEF) als das größte globale Risiko der nächsten zwei Jahre eingestuft.

Die Herausforderung bei Deepfakes besteht darin, dass die KI-gestützte Technologie mittlerweile billig, zugänglich und leistungsstark genug ist, um großen Schaden anzurichten. Es demokratisiert die Fähigkeit von Cyberkriminellen, staatlichen Akteuren und Hacktivisten, überzeugende Desinformationskampagnen und mehr zu starten Ad-hoc-, einmalige Betrügereien. Dies ist einer der Gründe, warum das WEF Fehlinformationen/Desinformationen kürzlich als größtes globales Risiko der kommenden zwei Jahre und als zweitgrößtes aktuelles Risiko nach extremen Wetterbedingungen eingestuft hat. Das sagen 1,490 Experten aus Wissenschaft, Wirtschaft, Regierung, der internationalen Gemeinschaft und der Zivilgesellschaft, die das WEF befragt hat.

Der Bericht warnt:„Synthetische Inhalte werden in den nächsten zwei Jahren Einzelpersonen manipulieren, Volkswirtschaften schädigen und Gesellschaften auf vielfältige Weise spalten … Es besteht die Gefahr, dass einige Regierungen zu langsam handeln und vor einem Kompromiss zwischen der Verhinderung von Fehlinformationen und dem Schutz der freien Meinungsäußerung stehen.“

Deepfakes-Desinformationspolitik

(Tiefe) Vortäuschung

Die Herausforderung besteht darin, dass Tools wie ChatGPT und frei zugängliche generative KI (GenAI) es einem breiteren Spektrum von Personen ermöglicht haben, sich an der Erstellung von Desinformationskampagnen zu beteiligen, die auf Deepfake-Technologie basieren. Mit all der harten Arbeit, die für sie geleistet wird, haben böswillige Akteure mehr Zeit, an ihren Botschaften und Verstärkungsbemühungen zu arbeiten, um sicherzustellen, dass ihre gefälschten Inhalte gesehen und gehört werden.

Im Wahlkontext könnten Deepfakes offensichtlich dazu genutzt werden, das Vertrauen der Wähler in einen bestimmten Kandidaten zu untergraben. Schließlich ist es einfacher, jemanden davon zu überzeugen, etwas nicht zu tun, als umgekehrt. Wenn Anhänger einer politischen Partei oder eines Kandidaten durch gefälschte Audio- oder Videoaufnahmen angemessen beeinflusst werden können, wäre das ein klarer Sieg für rivalisierende Gruppen. In manchen Situationen versuchen Schurkenstaaten möglicherweise, das Vertrauen in den gesamten demokratischen Prozess zu untergraben, so dass es dem Gewinner schwerfallen wird, mit Legitimität zu regieren.

Der Kern der Herausforderung liegt in einer einfachen Wahrheit: Wenn Menschen Informationen verarbeiten, legen sie tendenziell Wert auf Quantität und einfache Verständlichkeit. Das heißt, je mehr Inhalte wir mit einer ähnlichen Botschaft sehen und je einfacher sie zu verstehen ist, desto höher ist die Wahrscheinlichkeit, dass wir sie glauben. Aus diesem Grund bestehen Marketingkampagnen in der Regel aus kurzen und ständig wiederholten Nachrichten. Wenn man dazu noch die Tatsache hinzufügt, dass Deepfakes immer schwerer von echten Inhalten zu unterscheiden sind, ergibt sich ein potenzielles Rezept für eine demokratische Katastrophe.

Von der Theorie zur Praxis

Besorgniserregend ist, dass Deepfakes wahrscheinlich einen Einfluss auf die Stimmung der Wähler haben werden. Nehmen Sie dieses neue Beispiel: Im Januar 2024 ein Deepfake-Audio von US-Präsident Joe Biden wurde in Umlauf gebracht über einen Robocall an eine unbekannte Anzahl von Vorwahlwählern in New Hampshire. In der Botschaft forderte er sie offenbar auf, nicht zur Wahl zu gehen und stattdessen „Ihre Stimme für die Wahl im November aufzusparen“. Die angezeigte Anrufer-ID-Nummer wurde ebenfalls gefälscht, um den Eindruck zu erwecken, als wäre die automatische Nachricht von der Privatnummer von Kathy Sullivan gesendet worden, einer ehemaligen Vorsitzenden der Demokratischen Partei des Bundesstaates, die jetzt einen Pro-Biden-Super-PAC leitet.

Es ist nicht schwer vorstellbar, wie solche Aufrufe genutzt werden könnten, um Wähler davon abzuhalten, sich vor der Präsidentschaftswahl im November für ihren Wunschkandidaten zu entscheiden. Besonders groß ist das Risiko bei hart umkämpften Wahlen, bei denen der Wechsel einer kleinen Zahl von Wählern von einer Seite zur anderen das Ergebnis bestimmt. Da wahrscheinlich nur Zehntausende Wähler in einigen wenigen Swing States über den Wahlausgang entscheiden werden, könnte eine gezielte Kampagne wie diese unermesslichen Schaden anrichten. Und was das Ganze noch schlimmer macht: Wie im obigen Fall verbreitete sich die Krankheit über Robocalls und nicht über soziale Medien. Es ist sogar noch schwieriger, die Auswirkungen zu verfolgen oder zu messen.

Was unternehmen die Technologiefirmen dagegen?

Sowohl YouTube als auch Facebook sind es soll langsam gewesen sein als Reaktion auf einige Deepfakes, die eine kürzliche Wahl beeinflussen sollten. Dies trotz eines neuen EU-Gesetzes (Digital Services Act), das Social-Media-Unternehmen verpflichtet, Wahlmanipulationsversuchen entgegenzuwirken.

OpenAI hat seinerseits erklärt, dass es die digitalen Referenzen der Coalition for Content Provenance and Authenticity (C2PA) für von generierte Bilder implementieren wird DALL-E3. Die kryptografische Wasserzeichentechnologie – die auch von Meta und Google getestet wird – soll die Herstellung gefälschter Bilder erschweren.

Dies sind jedoch immer noch nur kleine Schritte und es gibt sie berechtigte Bedenken dass die technologische Reaktion auf die Bedrohung zu gering und zu spät sein wird, da das Wahlfieber den Globus erfasst. Insbesondere bei der Verbreitung in relativ geschlossenen Netzwerken wie WhatsApp-Gruppen oder Robocalls wird es schwierig sein, gefälschte Audio- oder Videodateien schnell aufzuspüren und zu entlarven.

Die Theorie des „Anchoring Bias“ schlägt vor dass die erste Information, die Menschen hören, diejenige ist, die uns im Gedächtnis haften bleibt, auch wenn sie sich als falsch herausstellt. Wenn es Deepfakern als Erster gelingt, Wähler zu wechseln, sind alle Wetten dahingehend ungültig, wer der endgültige Sieger sein wird. Im Zeitalter der sozialen Medien und der KI-gestützten Desinformation erhält Jonathan Swifts Sprichwort „Die Unwahrheit fliegt und die Wahrheit folgt ihr“ eine ganz neue Bedeutung.

spot_img

Neueste Intelligenz

VC-Café

VC-Café

spot_img