Zephyrnet-logo

Hoe AI-deepfakes op sociale media te herkennen

Datum:

Een video die vorige week op het Chinese sociale mediaplatform Weibo werd geplaatst, laat zien dat de Amerikaanse popster Taylor Swift vloeiend Mandarijn spreekt. Alleen was het niet de 33-jarige zanger in de clip. Het was een deepfake-video gegenereerd door een AI-tool van de Chinese start-up HeyGen.

Sinds 21 oktober, toen de deepfake van Swift voor het eerst plaatsvond gedeeld, is de video meer dan zes miljoen keer bekeken. Maar het heeft ook geleid tot discussie over de mogelijke valkuilen die ontstaan ​​naarmate AI geavanceerder wordt, waardoor het moeilijk wordt om onderscheid te maken tussen echte en valse identiteiten of inhoud.

Deepfakes – realistische maar nepafbeeldingen of -video’s die worden gebruikt om iemand anders na te bootsen, inclusief hun stem – kunnen worden ingezet om valse digitale identiteiten te creëren, iets wat cybercriminelen zouden kunnen gebruiken om fraude te plegen. De afbeeldingen en video's zien er precies zo uit en spreken precies als de beoogde persoon.

In mei bijvoorbeeld een Chinese zakenman verloor 4.3 miljoen yuan [$612,000] nadat een fraudeur face-swapping AI gebruikte om zich voor te doen als zijn vriend. Er ging geen geld verloren bij de deepfake van Taylor Swift, maar hier is waar je op moet letten om te voorkomen dat je wordt opgelicht op sociale media.

Controleer de aanbevelingen van AI-beroemdheden

Oplichters gebruiken doorgaans AI-deepfakes van vertrouwde personen om hun slachtoffers te lokken. De afgelopen maanden zijn er talloze nep-AI-beroemdheden opgedoken om mensen te misleiden met valse aanbevelingen. Valse versies van iconen als Elon Musk en Beyonce zijn bedoeld om nepmerken te promoten.

Blijkbaar scoren veel van de valse advertenties hoger in de zoekresultaten op Google, waarschijnlijk omdat het bedrijf niet genoeg doet om frauduleuze inhoud te filteren.

In het tijdperk van door AI gegenereerde nep-inhoud is het echter van cruciaal belang om video's die te mooi zijn om waar te zijn, met een kritische blik te benaderen. Buitengewone beweringen vereisen buitengewoon bewijs. Als je virale video's tegenkomt die sensationeel lijken, neem dan de tijd om hun authenticiteit en bronnen te verifiëren.

“Als je advies wilt over een product of dienst, kijk dan naar recensies of zoek een expert die er verstand van heeft en dat kan bewijzen”, zegt consumententechnologie-expert en radiopresentator Kim Komando.

“Nog een slimme stap: Google het product en de acteur in de advertentie, samen met het woord 'review'. Als iemand wordt betaald om een ​​product te promoten, zweeft er niet zomaar één willekeurige advertentie rond op sociale media”, voegde ze eraan toe in een artikel. gepubliceerde door de New York Post.

Lees ook: Taylor Swift, Emma Watson en anderen doelwit terwijl AI-porno stijgt

Besteed aandacht aan details

Deepfake-technologie is vooral eng omdat het zo realistisch is. AI-tools zoals Stabiele diffusie kan stemmen en mondbewegingen manipuleren, waardoor mensen gemakkelijk kunnen geloven dat een video- of audio-opname authentiek is.

Onthoud de door Ghostwriter gemaakte AI Drake en The Weeknd-nummer, waardoor miljoenen mensen, inclusief muziekstreamingdiensten, voor de gek werden gehouden door te denken dat het een nieuwe release was? Om een ​​deepfake te ontdekken, stelt Alex Kim, medeoprichter en CEO van AI-gedreven e-commerceversneller Rice, voor om:

“Let op eventuele ongebruikelijke inconsistenties in de video die je bekijkt. Contentmakers die deepfakes gebruiken, proberen meestal tijd te besparen, dus het verfijnen van details is niet iets waar ze tijd in zullen investeren”, vertelde Kim aan MetaNews.

“Dat betekent dat alle niet-overeenkomende gezichtsuitdrukkingen, onnatuurlijke bewegingen, vreemde artefacten, niet-overeenstemmende stemmen of lipsynchronisatie waarschijnlijk aanwezig zullen zijn op een deepfaked video,” zei Kim, en voegde eraan toe:

“Besteed specifieke aandacht aan de ogen, aangezien deepfakes hier het meeste moeite mee hebben.”

Het geval van de Chinese zakenman herinnert ons eraan dat deepfake-technologie een krachtig instrument is dat ten goede of ten kwade kan worden gebruikt. Regelgevers zijn meer aandacht gaan besteden aan de gevaren van AI sinds OpenAI in november zijn virale chatbot ChatGPT lanceerde, wat leidde tot een wereldwijde AI-race.

Zoals MetaNews eerder gerapporteerdExperts stellen voor om nieuwe technologieën te ontwikkelen die het gebruik van valse identiteiten kunnen detecteren en voorkomen. Hierbij kan gedacht worden aan het gebruik van biometrische gegevens, zoals gezichtsherkenning of het scannen van vingerafdrukken, om de identiteit van gebruikers online te verifiëren.

Controleer de achtergrond voor aanwijzingen

Terwijl sommige apps gebruiken watermerken om door AI gegenereerde inhoud te identificeren, is het bij anderen niet zo vanzelfsprekend. Volgens Alex Kim zullen gebruikers de achtergrond in afbeeldingen of video’s moeten scannen om aanwijzingen te vinden over AI-deepfake-materiaal. Rijst.win CEO.

"Als de achtergrond onnatuurlijk beweegt of de belichting niet overeenkomt met de schaduwen op de voorgrond, is het waarschijnlijk een deepfake", zei Kim. “Details zoals textuur op materialen, of het ontbreken daarvan, zijn andere tekenen.”

“Zoek naar pixelvorming of onscherpte waar die er niet zou moeten zijn, vooral als dit bij een menselijk onderwerp gebeurt. Natuurlijke details zoals haarlijnen, oren, neuzen of gelaatstrekken zijn moeilijk in een deepfake zichtbaar te maken, althans op overtuigende wijze.”

AI-technologie, die voor het grootste deel gratis en gemakkelijk toegankelijk blijft, wordt op veel manieren door slechte actoren gebruikt. Afbeeldingen van spraakmakende vrouwelijke beroemdheden, waaronder Taylor Swift en Emma Watson, zijn met behulp van AI gemanipuleerd om deepfake te creëren pornografische inhoud.

Een nieuwe AI-tool van het Massachusetts Institute of Technology (MIT) in de VS belooft deepfakes te beteugelen. Mensen kunnen gebruiken FotoGuard om “kleine, onzichtbare aanpassingen te maken om [hun] foto’s te beschermen tegen deepfakes en vervelende bewerkingen – een veelbelovende gouden standaard op het gebied van online veiligheid.”

Alex Kim vertelde MetaNews dat de meest voor de hand liggende en gebruikelijke manier om nep-AI-video’s op sociale media te identificeren, is door te kijken naar de kanalen waarop ze worden gehost.

"Je zult willen kijken hoeveel het kanaal de laatste tijd heeft gepost en of er grote pieken of stijgingen zijn geweest in de creatie van inhoud", zei Kim. "Als er een grote piek is in het aantal geposte video's die vreemd, van lage kwaliteit of vreemd lijken, is dat een vrij zeker teken dat de maker deepfakes gebruikt."

spot_img

Laatste intelligentie

spot_img