Zephyrnet-logo

Lijn tussen echt en AI-creatie te dun voor het oog

Datum:

Terwijl generatieve AI-ontwikkelaars hun modellen blijven verfijnen tot verfijning, wordt het ook steeds moeilijker om onderscheid te maken tussen echte beelden en AI-creaties, onthullen onderzoekers.

Een studie door onderzoekers van de Universiteit van Waterloo hebben vastgesteld dat mensen moeite hebben met het bedenken van een beeld van een echte persoon en dat van een door AI gegenereerde persoon.

Onder de verwachte drempel

Bij het uitvoeren van het onderzoek hebben onderzoekers van de Universiteit van Waterloo 20 ongelabelde afbeeldingen aan 260 deelnemers verstrekt. De helft van de foto's was van echte mensen, afkomstig van Google Afbeeldingen, terwijl de andere helft door AI was gegenereerd met behulp van tools als Dall-E en Stabiele diffusie.

Vervolgens werd aan de deelnemers gevraagd om de afbeeldingen te labelen als ze echt waren of door AI waren gegenereerd, om hun antwoorden te rechtvaardigen.

Hoewel 61% van de deelnemers het verschil kon zien tussen echte beelden en door AI gegenereerde beelden, lag dit nog steeds ver onder de verwachte drempel van 85%.

Terwijl ze de beelden bestudeerden, letten de deelnemers op details zoals ogen, vingers, tanden en andere indicatoren die bij het zoeken naar AI beelden creëerden, maar “hun inschattingen waren niet altijd correct.”

‘Mensen zijn niet zo bedreven in het maken van onderscheid als ze denken’ zei hoofdauteur van het onderzoek, Andrea Pocol, die ook promovendus in computerwetenschappen is aan de universiteit.

Terwijl internetgebruikers de afbeeldingen misschien terloops bekijken, zeiden de Waterloo-onderzoekers dat ze de deelnemers de tijd gaven om de afbeeldingen te analyseren.

"Mensen die alleen maar aan het doomscrollen zijn of geen tijd hebben, zullen deze signalen niet opmerken", zei Pocol.

Lees ook: CEO van Leonardo benadrukt de domheid van gebruikers over AI-bedreigingen in Davos

Misbruik van de technologie

Hun studies, getiteld ‘Seeing Is No Longer Believing: A Survey on the State of Deepfakes, AI-Generated Humans, and Other Nonveridical Media’, dat verschijnt in het tijdschrift Advances in Computer Graphics, benadrukt ook de risico’s die gepaard gaan met de vooruitgang in generatieve AI-technologie .

De onderzoekers constateerden ook met bezorgdheid de snelheid waarmee de generatieve AI-technologie snel verandert en elke dag geavanceerder wordt. Wetenschappelijk onderzoek en wetgeving houden geen gelijke tred met de ontwikkelingen in de generatieve industrie.

Pocol zei dat AI-afbeeldingen reëler worden, waardoor het voor sommige mensen moeilijk wordt om gemakkelijk onderscheid te maken tussen echte en door AI gegenereerde afbeeldingen. Dit creëert volgens Pocol een vruchtbare voedingsbodem voor slechte actoren die misbruik maken van de technologie om kwaadwilligheid te verspreiden en desinformatie in stand te houden of mensen te misleiden.

“Desinformatie is niet nieuw, maar de instrumenten voor desinformatie zijn voortdurend aan het verschuiven en evolueren”, aldus Pocol.

“Het kan een punt bereiken waarop mensen, hoe getraind ze ook zijn, nog steeds moeite zullen hebben om echte beelden van namaak te onderscheiden. Daarom moeten we instrumenten ontwikkelen om dit te identificeren en tegen te gaan. Het is als een nieuwe AI-wapenwedloop.”

De onderzoekers hebben ook de uitdagingen erkend die de technologie met zich meebrengt, vooral als het gaat om de verspreiding van deepfakes.

De technologie in verkeerde handen

Nu gewone mensen moeite hebben om onderscheid te maken tussen echte en nepbeelden, groeit de angst voor een toename van de verspreiding van deepfakes. Deskundigen hebben gewaarschuwd dat slechte actoren misbruik zullen maken van de generatieve AI-technologie om verkiezingsleugens te verspreiden in hun pogingen om kiezers te misleiden.

De Centrum voor het tegengaan van digitale haat (CCDH), een non-profitorganisatie die online haatzaaiende uitlatingen monitort, heeft dat al gedaan waarschuwde in hun rapport dat AI-aangedreven beeldgeneratoren de desinformatie over de verkiezingen van 2024 verergeren.

“Het potentieel dat dergelijke door AI gegenereerde beelden als ‘fotobewijs’ kunnen dienen, zou de verspreiding van valse beweringen kunnen verergeren, wat een aanzienlijke uitdaging zou vormen voor het behoud van de integriteit van verkiezingen”, aldus CCDH-onderzoekers in hun rapport.

Dit komt echter te midden van een aankondiging van ongeveer 20 grote technologiebedrijven, waaronder OpenAI, Microsoft en Stabiliteit AI een overeenkomst getekend om samen te werken om te voorkomen dat misleidende AI-inhoud “de verkiezingen die dit jaar wereldwijd plaatsvinden, verstoort.

spot_img

Laatste intelligentie

spot_img