Zephyrnet-logo

Deepfakes detecteren: er is een nieuwe methode ontwikkeld waarbij gebruik wordt gemaakt van zelfgemengde afbeeldingen

Datum:

Deepfakes zijn mengsels van echt en frauduleus materiaal dat is vervalst om echt te lijken. Bij gebruik door kwaadwillenden kunnen de effecten ervan schadelijk zijn. Het detecteren van deepfakes is dus cruciaal en onderzoekers zoeken continu naar nieuwe methoden. De meest recente technieken zijn vaak gebaseerd op netwerken die zijn opgezet met behulp van paren van originele en synthetische afbeeldingen, die deze norm uitdagen door algoritmen te trainen met gesynthetiseerde beelden die op unieke wijze zijn geproduceerd. Deze nieuwe trainingsgegevens, zelf-gemengde foto's genoemd, kunnen algoritmen helpen die zijn ontworpen om deepfake-foto's en -video's effectiever te detecteren.

De rol van AI kan niet worden genegeerd bij het detecteren van deepfakes

Sinds de uitvinding van de opgenomen visuele media zijn er altijd mensen geweest die op zoek waren naar misleiding. Dingen variëren van de minder belangrijke, zoals nep-UFO-films, tot meer serieuze zaken zoals politieke leiders die van officiële foto's worden gewist. Deepfakes zijn slechts de nieuwste manipulatietechniek op een lange lijst, en hun potentieel om door te gaan als echte realiteiten overtreft ver de ontwikkeling van technologie die ze detecteert.

Het detecteren van deepfakes is cruciaal en onderzoekers zijn continu op zoek naar nieuwe methoden.
Het detecteren van deepfakes is cruciaal en onderzoekers zijn continu op zoek naar nieuwe methoden.

Universitair hoofddocent Toshihiko Yamasaki en promovendus Kaede Shiohara van het Computer Vision and Media Lab van de Universiteit van Tokyo doen onder meer onderzoek naar tekortkomingen in kunstmatige intelligentie. Ze raakten geïnteresseerd in het onderwerp deepfakes en begonnen methoden te onderzoeken om frauduleuze inhoud op te sporen. Gezichtsherkenning en deepfakes-technologieën worden over de hele wereld zwaar bekritiseerd. U kunt meer te weten komen over de nieuwste regelgeving door te lezen de EU AI-wet.

“Er zijn veel verschillende methoden om deepfakes te detecteren, en ook verschillende sets trainingsgegevens die kunnen worden gebruikt om nieuwe te ontwikkelen. Het probleem is dat de bestaande detectiemethoden vaak goed presteren binnen de grenzen van een trainingsset, maar minder goed over meerdere datasets of, belangrijker nog, wanneer ze worden afgezet tegen de modernste praktijkvoorbeelden. We waren van mening dat de manier om succesvolle detecties te verbeteren, zou kunnen zijn om de manier waarop trainingsgegevens worden gebruikt te heroverwegen. Dit leidde ertoe dat we ontwikkelden wat we self-blended noemen afbeeldingen (ook wel bekend als SBI's)', legt Yamasaki uit.

Het detecteren van deepfakes is cruciaal en onderzoekers zijn continu op zoek naar nieuwe methoden.
De onderzoekers ontdekten dat het veranderen van de datasets de nauwkeurige detectiepercentages met ongeveer 5-12% verbeterde

De meest typische trainingsgegevens voor het detecteren van deepfakes zijn paren foto's, één van een ongewijzigde bronafbeelding en de andere van een nagemaakte afbeelding van een tegenhanger, waarbij het gezicht of het hele lichaam van iemand is vervangen door dat van iemand anders. Training op dit soort gegevens resulteerde in een beperkte detectie van bepaalde visuele anomalieën veroorzaakt door modificatie, terwijl andere niet werden gedetecteerd. Ze probeerden trainingssets van gesynthetiseerde afbeeldingen te gebruiken om het probleem beter te begrijpen. Ze kunnen dus detectie-algoritmen beter trainen om dergelijke items te vinden door te bepalen welke soorten artefacten de trainingsafbeeldingen bevatten.

Het detecteren van deepfakes is cruciaal en onderzoekers zijn continu op zoek naar nieuwe methoden

"In wezen hebben we schone bronafbeeldingen van mensen uit bestaande datasets genomen en verschillende subtiele artefacten geïntroduceerd die bijvoorbeeld het gevolg zijn van het vergroten of verkleinen van de afbeelding. Daarna hebben we dat beeld vermengd met de originele ongewijzigde bron. Het proces van het mengen van deze afbeeldingen zou ook afhangen van de kenmerken van de bronafbeelding. Er zou een masker worden gemaakt zodat alleen bepaalde delen van het gemanipuleerde beeld de samengestelde uitvoer zouden halen. Veel SBI's zijn gecompileerd in onze aangepaste dataset, die we vervolgens hebben gebruikt om detectoren te trainen, "zei Yamasaki.

Het detecteren van deepfakes is cruciaal en onderzoekers zijn continu op zoek naar nieuwe methoden.
De rol van AI kan niet worden genegeerd bij het detecteren van deepfakes.

De onderzoekers ontdekten dat het veranderen van de datasets ongeveer 5-12% verbeterde bij het detecteren van deepfakes, afhankelijk van de originele dataset waarmee ze werden vergeleken. Dit lijken misschien geen significante boosts, maar ze kunnen het verschil maken tussen een hacker die wel of niet op de een of andere manier invloed heeft op zijn beoogde publiek. U kunt ook te weten komen hoe lost AI de fundamentele problemen met traditionele cyberbeveiliging op?, door ons artikel te lezen.

“Natuurlijk willen we dit idee verbeteren. Het werkt het beste op stilstaande beelden, maar video's kunnen tijdelijke artefacten bevatten die we nog niet kunnen detecteren. Ook worden deepfakes meestal slechts gedeeltelijk gesynthetiseerd. We kunnen ook manieren onderzoeken om volledig synthetische afbeeldingen te detecteren. Ik voorzie echter dat dit soort onderzoek in de nabije toekomst zijn weg kan vinden naar sociale-mediaplatforms en andere serviceproviders, zodat ze potentieel gemanipuleerde afbeeldingen beter kunnen markeren met een soort waarschuwing”, zei Yamasaki.

spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?