Zephyrnet-logo

Vervalste satellietbeelden in Deepfake-geografie gezien als veiligheidsbedreiging

Datum:

Wetenschappers die een potentiële bedreiging voor de nationale veiligheid hebben geïdentificeerd door deepfake-geografie, zoals in valse satellietbeelden, bestuderen manieren om deze te identificeren en tegenmaatregelen te nemen. (Credit: Getty Images)

Door John P. Desmond, AI Trends Editor

Deepfake is een samenvoeging van "diep leren" en "nep", en verwijst naar een synthetisch medium waarin gewoonlijk een persoon in een bestaande afbeelding of video wordt vervangen door de gelijkenis van iemand anders. Deepfakes gebruiken technieken van machine learning en AI om visuele en audiocontent te manipuleren met een hoog potentieel om te misleiden.

Deepfakes toegepast op geografie kunnen satellietbeeldgegevens vervalsen, wat een bedreiging voor de nationale veiligheid zou kunnen vormen. Wetenschappers van de Universiteit van Washington (UW) bestuderen dit, in de hoop manieren te vinden om nep-satellietbeelden op te sporen en te waarschuwen voor de gevaren ervan.

Bo Zhao, universitair docent geografie, Universiteit van Washington

"Dit zijn niet alleen dingen photoshoppen. Het zorgt ervoor dat gegevens er griezelig realistisch uitzien, ”verklaarde Bo Zhao, assistent-professor aardrijkskunde bij UW en hoofdauteur van de studies, In een persbericht van de Universiteit van Washington. De studie werd op 21 april in het tijdschrift gepubliceerd Cartografie en geografische informatiekunde. “De technieken zijn er al. We proberen alleen de mogelijkheid bloot te leggen om dezelfde technieken te gebruiken, en de noodzaak om er een coping-strategie voor te ontwikkelen, ”verklaarde Zhao.

Neplocaties en andere onnauwkeurigheden maken al sinds de oudheid deel uit van het maken van kaarten, vanwege de aard van het vertalen van echte locaties naar kaartvorm. Maar sommige onnauwkeurigheden in kaarten zijn gemaakt door de kaartenmakers om inbreuk op het auteursrecht te voorkomen.

Directeur van de National Geospatial Intelligence Agency geeft alarm

Nu geografische informatiesystemen, Google Earth en andere satellietbeeldvormingssystemen steeds populairder worden, brengt spoofing een grote verfijning met zich mee en brengt het meer risico's met zich mee. De directeur van het federale agentschap dat verantwoordelijk is voor geospatiale intelligentie, de National Geospatial Intelligence Agency (NGA), sloeg alarm tijdens een brancheconferentie in 2019.

"We worden momenteel geconfronteerd met een beveiligingsomgeving die complexer, onderling verbonden en vluchtiger is dan we in de recente herinnering hebben meegemaakt - een omgeving die van ons vereist dat we dingen anders doen als we er met succes doorheen willen navigeren", aldus NGA Directeur Vice Adm. Robert Sharp, volgens een verslag van SpaceNews.

Om te bestuderen hoe satellietbeelden kunnen worden vervalst, gebruikten Zhao en zijn team bij WU een AI-raamwerk dat is gebruikt om andere soorten digitale bestanden te manipuleren. Wanneer het wordt toegepast op het gebied van mapping, leert het algoritme in wezen de karakteristieken van satellietbeelden uit een stedelijk gebied en genereert het vervolgens een deepfake-beeld door de karakteristieken van de aangeleerde karakteristieken van het satellietbeeld op een andere basiskaart te zetten. De onderzoekers gebruikten hiervoor een generatief, vijandig netwerk voor machine learning.

De onderzoekers combineerden kaarten en satellietbeelden van drie steden - Tacoma, Seattle en Beijing - om kenmerken te vergelijken en nieuwe afbeeldingen van één stad te maken, op basis van de kenmerken van de andere twee. Het ongetrainde oog kan moeite hebben om de verschillen tussen echt en nep te detecteren, merkten de onderzoekers op. De onderzoekers bestudeerden kleurhistogrammen en frequentie, textuur, contrast en ruimtelijke domeinen om te proberen de vervalsingen te identificeren.

Gesimuleerde satellietbeelden kunnen een legitiem doel dienen als ze bijvoorbeeld worden gebruikt om weer te geven hoe een gebied in de loop van de tijd door klimaatverandering wordt beïnvloed. Als er gedurende een bepaalde periode geen afbeeldingen zijn, kan het opvullen van de gaten om perspectief te bieden perspectief bieden. De simulaties moeten als zodanig worden gelabeld.

De onderzoekers hopen te leren hoe ze nepbeelden kunnen detecteren, om geografen te helpen bij het ontwikkelen van tools voor datageletterdheid, vergelijkbaar met feitencontrolediensten. Naarmate de technologie zich blijft ontwikkelen, beoogt deze studie een meer holistisch begrip van geografische gegevens en informatie aan te moedigen, zodat we de kwestie van de absolute betrouwbaarheid van satellietbeelden of andere geospatiale gegevens kunnen demystificeren, aldus Zhao. "We willen ook meer toekomstgericht denken ontwikkelen om zo nodig tegenmaatregelen te nemen, zoals feitencontrole", zei hij.

In een interview met The Verge, Verklaarde Zhao dat het doel van zijn onderzoek is "om de functie van absolute betrouwbaarheid van satellietbeelden te demystificeren en om het publiek bewust te maken van de mogelijke invloed van diepe nepgeografie." Hij verklaarde dat hoewel deepfakes op andere gebieden veel worden besproken, zijn paper waarschijnlijk de eerste is die het onderwerp in de geografie behandelt.

"Hoewel veel beoefenaars van GIS [geografische informatiesystemen] de technische verdiensten van deep learning en andere soorten AI voor het oplossen van geografische problemen hebben geprezen, hebben maar weinigen de potentiële bedreigingen van deep fake voor geografie of daarbuiten publiekelijk erkend of bekritiseerd," ”Aldus de auteurs.

Onderzoekers van het Amerikaanse leger werken ook aan deepfake-detectie

Professor C.-C. Jay Kuo, hoogleraar elektrische en computertechniek, University of Southern California

Onderzoekers van het Amerikaanse leger werken ook aan een detectiemethode voor deepfake. Onderzoekers van het US Army Combat Capabilities Development Command, bekend als DEVCOM, Army Research Laboratory, onderzoeken in samenwerking met de onderzoeksgroep van professor CC Jay Kuo aan de University of Southern California de bedreiging die deepfakes vormen voor onze samenleving en nationale veiligheid, volgens een los van het US Army Research Laboratory (ARL).

Hun werk is te zien in de paper met de titel "DefakeHop: een lichtgewicht high-performance deepfake-detector, " die zal worden gepresenteerd op de IEEE International Conference on Multimedia en Expo 2021 in juli.

ARL-onderzoekers Dr. Suya You en Dr. Shuowen (Sean) Hu merkten op dat de meeste state-of-the-art deepfake-videodetectie- en media-forensische methoden gebaseerd zijn op diep leren, dat inherente zwakheden heeft in robuustheid, schaalbaarheid en draagbaarheid.

"Door de opkomst van generatieve neurale netwerken zijn AI-gestuurde deepfakes zo snel gevorderd dat er een gebrek is aan betrouwbare technieken om ze op te sporen en ertegen te verdedigen", verklaarde u. "We hebben dringend behoefte aan een alternatief paradigma dat het mechanisme achter de verrassende prestaties van deepfakes kan begrijpen, en om effectieve verdedigingsoplossingen te ontwikkelen met solide theoretische ondersteuning."

Op basis van hun ervaring met machine learning, signaalanalyse en computervisie, ontwikkelden de onderzoekers een nieuwe theorie en een wiskundig raamwerk dat ze de Successive Subspace Learning of SSL noemen als een innovatieve neurale netwerkarchitectuur. SSL is de belangrijkste innovatie van DefakeHop, aldus de onderzoekers.

"SSL is een geheel nieuw wiskundig raamwerk voor neurale netwerkarchitectuur, ontwikkeld op basis van signaaltransformatietheorie", aldus Kuo. “Het is radicaal anders dan de traditionele aanpak. Het is zeer geschikt voor hoogdimensionale gegevens met covariantiestructuren op korte, middellange en lange afstand. SSL is een compleet datagestuurd raamwerk zonder toezicht en biedt een gloednieuwe tool voor beeldverwerking en het begrijpen van taken zoals gezichtsbiometrie. "

Lees de bronartikelen en informatie in een persbericht van de Universiteit van Washington, in het tijdschrift Cartografie en geografische informatiekunde, een account van SpaceNews,a los van het US Army Research Laboratory, en in het artikel met de titel "DefakeHop: een lichtgewicht high-performance deepfake-detector. "

Coinsmart. Beste Bitcoin-beurs in Europa
Bron: https://www.aitrends.com/ai-in-science/falsified-satellite-images-in-deepfake-geography-seen-as-security-threat/

spot_img

Laatste intelligentie

spot_img