Zephyrnet-logo

AI-aangedreven ‘Nudify’-platforms: een diepe duik in de alarmerende golf en de implicaties ervan

Datum:

Recente ontdekkingen van Graphika, een bedrijf dat gespecialiseerd is in onderzoek naar sociale netwerken, hebben een verontrustende trend aan het licht gebracht: de exponentiële ontwikkeling in het gebruik van kunstmatige intelligentie (AI) om personen digitaal uit te kleden op foto's, met een primaire focus op vrouwen. Alleen al in de maand september meldde dit fenomeen, dat ook wel ‘nudify’- of ‘uitkleed’-diensten wordt genoemd, dat meer dan 24 miljoen gebruikers zich met dergelijke platforms bezighielden, wat erop wijst dat er grote zorgen zijn over privacy en veiligheid.

Door krachtige kunstmatige intelligentie-algoritmen te gebruiken, kunnen deze platforms kleding op foto's vervangen door naaktheid, wat gendergerelateerde digitale intimidatie verder verergert. Het op deze manier wijzigen van foto's zonder toestemming van de persoon veroorzaakt niet alleen aanzienlijke emotionele en reputatieschade, maar brengt ook aanzienlijke ethische en juridische problemen met zich mee. Vanwege de marketingmethoden die deze platforms gebruiken, waarbij vaak gebruik wordt gemaakt van sociale netwerken, is er sinds begin dit jaar een stijging van 2,400% in het aantal advertentielinks dat op platforms als Reddit en anderen is geplaatst.

Als gevolg van de wildgroei aan Nudify-applicaties zijn een aantal belangrijke problemen aan het licht gekomen. Deze problemen omvatten inbreuken op de privacy, zorgen over autonomie en het bestendigen van schadelijke stereotypen en de objectivering van vrouwen. Deze instrumenten dragen bij aan aanpassingen die niet met toestemming van het individu worden doorgevoerd, wat kan resulteren in een stijging van het aantal gevallen van seksuele intimidatie en aanranding. Naast problemen op het gebied van de privacy maakt de technologie het mogelijk om 'deep fakes' en synthetische media te creëren, wat aanzienlijke risico's met zich meebrengt voor de veiligheid van gebruikers terwijl ze online zijn en bijdraagt ​​aan de verspreiding van valse informatie.

Er is een geconcentreerde inspanning op een aantal verschillende fronten nodig om ons tegen dit groeiende gevaar te kunnen verdedigen. Advertenties voor Nudify-applicaties moeten worden geïdentificeerd en verwijderd van sociale-mediasites, en overheden moeten worden aangemoedigd om wetten aan te nemen die het gebruik van dergelijke apps verbieden. Bovendien moeten onderzoeksinstituten en technologiebedrijven instrumenten en methoden creëren om de creatie van naaktfoto's door kunstmatige intelligentie te identificeren en te voorkomen.

Apps zoals DeepSukebe, die de belofte doet dat het “de waarheid kan onthullen die verborgen is onder kleding”, zijn vooral problematisch omdat ze de productie van naaktfoto’s mogelijk maken die zonder toestemming van de gebruiker worden getoond en instrumenten zijn geworden voor intimidatie en uitbuiting. . Ondanks de ethische overwegingen bestaat er een duidelijke behoefte aan dergelijke tools, zoals blijkt uit de aanzienlijke maandelijkse zoekvolumes naar zoektermen die aan het onderwerp zijn gekoppeld.

Ruim 24 miljoen unieke mensen bekeken in september een reeks van 34 uitkleedwebsites en -applicaties, blijkt uit een onderzoek dat in december 2022 door Graphika werd gepubliceerd. Deze informatie geeft inzicht in de omvang van het probleem. Ondanks het feit dat bedrijven als TikTok en Meta Platforms Inc. maatregelen hebben genomen om het probleem aan te pakken, is er een onmiddellijke en dringende behoefte aan meer omvattende sectorbrede initiatieven om de ontwikkeling van door AI gegenereerde advertenties tegen te gaan. pornografie die deepfake isEr is een

Afbeeldingsbron: Shutterstock

spot_img

Laatste intelligentie

spot_img