Zephyrnet-logo

Deepfakes in het mondiale verkiezingsjaar 2024: een wapen voor massale misleiding?

Datum:

Digitale beveiliging

Nu gefabriceerde afbeeldingen, video’s en audiofragmenten van echte mensen mainstream worden, is het vooruitzicht van een vuurslang van door AI aangedreven desinformatie reden tot toenemende bezorgdheid

Deepfakes in het mondiale verkiezingsjaar 2024: een wapen voor massale misleiding?

Sindsdien domineert nepnieuws de krantenkoppen bij de verkiezingen werd een groot verhaal tijdens de race om het Witte Huis in 2016. Maar acht jaar later is er een aantoonbaar grotere dreiging: een combinatie van disinformatie en deepfakes dat zou zelfs de experts voor de gek kunnen houden. De kans is groot dat dit recent is voorbeelden van door AI gegenereerde inhoud met verkiezingsthema – waaronder een hele reeks afbeeldingen en video’s die in omloop zijn in de aanloop naar de huidige verkiezingen in Argentinië en gemanipuleerde audio van de Amerikaanse president Joe Biden – waren voorbodes van wat er waarschijnlijk op grotere schaal gaat gebeuren.

Met rond een een kwart van de wereldbevolking Als we in 2024 naar de stembus gaan, nemen de zorgen toe dat desinformatie en AI-aangedreven bedrog door snode actoren kunnen worden gebruikt om de resultaten te beïnvloeden, waarbij veel experts bang zijn voor de gevolgen van het mainstream worden van deepfakes.

De deepfake-desinformatiedreiging

Zoals gezegd staan ​​dit jaar niet minder dan twee miljard mensen op het punt naar hun plaatselijke stembureau te gaan om op hun favoriete vertegenwoordigers en staatsleiders te stemmen. Aangezien er in meer dan alleen landen grote verkiezingen zullen plaatsvinden, waaronder de VS, Groot-Brittannië en India (en ook voor het Europees Parlement), heeft dit het potentieel om het politieke landschap en de richting van de geopolitiek de komende jaren te veranderen – en voorbij.

Tegelijkertijd zijn er echter recentelijk desinformatie en desinformatie verschenen gerangschikt door het World Economic Forum (WEF) als het grootste mondiale risico van de komende twee jaar.

De uitdaging met deepfakes is dat de door AI aangedreven technologie nu goedkoop, toegankelijk en krachtig genoeg wordt om op grote schaal schade aan te richten. Het democratiseert het vermogen van cybercriminelen, statelijke actoren en hacktivisten om overtuigende desinformatiecampagnes te lanceren en meer ad hoc, eenmalige oplichting. Het is deels de reden waarom het WEF onlangs desinformatie/desinformatie heeft gerangschikt als het grootste mondiale risico van de komende twee jaar, en het tweede huidige risico, na extreem weer. Dat zeggen 1,490 experts uit de academische wereld, het bedrijfsleven, de overheid, de internationale gemeenschap en het maatschappelijk middenveld die het WEF heeft geraadpleegd.

Het rapport waarschuwt:“Synthetische inhoud zal de komende twee jaar individuen manipuleren, economieën schade toebrengen en samenlevingen op talloze manieren breken. Het risico bestaat dat sommige regeringen te traag zullen handelen en geconfronteerd zullen worden met een afweging tussen het voorkomen van desinformatie en het beschermen van de vrijheid van meningsuiting.”

deepfakes-desinformatie-politiek

(Diep)faken

De uitdaging is dat tools zoals ChatGPT en vrij toegankelijke generatieve AI (GenAI) het voor een breder scala aan individuen mogelijk hebben gemaakt om deel te nemen aan de creatie van desinformatiecampagnes, aangedreven door deepfake-technologie. Nu al het harde werk voor hen is gedaan, hebben kwaadwillende actoren meer tijd om aan hun berichten te werken en inspanningen te leveren om ervoor te zorgen dat hun nep-inhoud wordt gezien en gehoord.

In een verkiezingscontext kunnen deepfakes uiteraard worden gebruikt om het vertrouwen van kiezers in een bepaalde kandidaat te ondermijnen. Het is immers makkelijker om iemand ervan te overtuigen iets niet te doen dan andersom. Als aanhangers van een politieke partij of kandidaat op passende wijze kunnen worden beïnvloed door nagemaakte audio of video, zou dat een duidelijke overwinning zijn voor rivaliserende groepen. In sommige situaties proberen schurkenstaten het geloof in het hele democratische proces te ondermijnen, zodat degene die wint het moeilijk zal krijgen om op legitimiteit te regeren.

De kern van de uitdaging ligt in een simpele waarheid: wanneer mensen informatie verwerken, hebben ze de neiging om kwantiteit en begrijpelijkheid te waarderen. Dat betekent dat hoe meer inhoud we bekijken met een soortgelijke boodschap, en hoe gemakkelijker het te begrijpen is, hoe groter de kans is dat we het zullen geloven. Dat is de reden waarom marketingcampagnes vaak bestaan ​​uit korte en voortdurend herhaalde berichten. Voeg daarbij het feit dat deepfakes steeds moeilijker te onderscheiden zijn van echte inhoud, en je hebt een potentieel recept voor een democratische ramp.

Van theorie tot praktijk

Zorgwekkend is dat deepfakes waarschijnlijk een impact zullen hebben op het kiezerssentiment. Neem dit frisse voorbeeld: in januari 2024 een deepfake-audio van de Amerikaanse president Joe Biden werd verspreid via een robocall naar een onbekend aantal primaire kiezers in New Hampshire. In het bericht zei hij blijkbaar dat ze niet moesten komen opdagen, maar in plaats daarvan ‘uw stem moesten bewaren voor de verkiezingen van november’. Het weergegeven beller-ID-nummer werd ook vervalst, zodat het leek alsof het automatische bericht was verzonden vanaf het persoonlijke nummer van Kathy Sullivan, een voormalige voorzitter van de Democratische Partij die nu een pro-Biden super-PAC leidt.

Het is niet moeilijk om te zien hoe dergelijke oproepen kunnen worden gebruikt om kiezers ervan te weerhouden om vóór de presidentsverkiezingen in november op hun voorkeurskandidaat te stemmen. Het risico zal bijzonder acuut zijn bij verkiezingen met veel concurrentie, waarbij de verschuiving van een klein aantal kiezers van de ene naar de andere kant de uitslag bepaalt. Omdat slechts tienduizenden kiezers in een handvol swing states waarschijnlijk de uitkomst van de verkiezingen zullen bepalen, zou een gerichte campagne als deze onnoemelijke schade kunnen aanrichten. En om het nog erger te maken, zoals in het bovenstaande geval het zich verspreidde via robocalls in plaats van via sociale media, is het zelfs nog moeilijker om de impact te volgen of te meten.

Wat doen de technologiebedrijven eraan?

Zowel YouTube als Facebook zijn dat zei dat het langzaam was als reactie op enkele deepfakes die bedoeld waren om recente verkiezingen te beïnvloeden. Dat ondanks een nieuwe EU-wet (de Digital Services Act) die sociale-mediabedrijven verplicht om pogingen tot verkiezingsmanipulatie aan te pakken.

OpenAI van zijn kant heeft gezegd dat het de digitale referenties van de Coalition for Content Provenance and Authenticity (C2PA) zal implementeren voor afbeeldingen die zijn gegenereerd door DALL-E3. De cryptografische watermerktechnologie – die ook wordt getest door Meta en Google – is ontworpen om het moeilijker te maken om nepafbeeldingen te produceren.

Dit zijn echter nog maar babystapjes, en dat zijn er ook gerechtvaardigde zorgen dat het technologische antwoord op de dreiging te weinig en te laat zal zijn, aangezien de verkiezingskoorts de wereld in zijn greep heeft. Vooral als het verspreid wordt in relatief gesloten netwerken zoals WhatsApp-groepen of robocalls, zal het moeilijk zijn om vervalste audio of video snel op te sporen en te ontkrachten.

De theorie van “verankerende bias” suggereert dat het eerste stukje informatie dat mensen horen, het stukje informatie is dat in onze gedachten blijft hangen, zelfs als het onjuist blijkt te zijn. Als deepfakers als eerste de kiezers kunnen overtuigen, is het nog maar de vraag wie de uiteindelijke winnaar zal zijn. In het tijdperk van sociale media en door AI aangedreven desinformatie krijgt het adagium van Jonathan Swift “de leugen vliegt, en de waarheid komt er achter aan” een geheel nieuwe betekenis aan.

spot_img

Laatste intelligentie

spot_img