Zephyrnet-logo

Door AI gegenereerd materiaal over kindermisbruik kan het internet ‘overweldigen’, waarschuwt UK Group – Decrypt

Datum:

Een in Groot-Brittannië gevestigd internetwaakhondbedrijf Internet Watch Foundation (IWF) luidt opnieuw de noodklok over de snelle verspreiding van door AI gegenereerd materiaal over seksueel misbruik van kinderen (CSAM). In een nieuw verslag De groep meldde woensdag dat er in slechts één maand ruim 20,254 door AI gegenereerde CSAM-afbeeldingen zijn gevonden op één darkweb-forum – en dat een stortvloed van dergelijke weerzinwekkende inhoud het internet zou kunnen ‘overweldigen’.

As generatieve AI beeldgeneratoren worden geavanceerder, het vermogen om realistische replica's van mensen te creëren is met grote sprongen gegroeid. AI-beeldgeneratoren zoals Midjourney, Runway, Stable Diffusion en Dall-E van OpenAI zijn slechts enkele van de platforms die levensechte beelden kunnen oproepen.

Deze cloudgebaseerde platforms, die breed toegankelijk zijn voor het publiek, hebben substantiële beperkingen, regels en controles geïmplementeerd om te voorkomen dat hun tools door snode actoren worden gebruikt om beledigende inhoud te creëren. Maar AI-enthousiastelingen zoeken regelmatig naar manieren om deze vangrails te omzeilen.

“Het is belangrijk dat we de realiteit van AI CSAM aan een breed publiek communiceren, omdat we discussies moeten hebben over de donkere kant van deze verbazingwekkende technologie”, zei Susie Hargreaves, CEO van de stichting, in het rapport.

Het zeggen van zijn “ergste nachtmerrie' was uitgekomen, zei de IWF dat het nu gevallen van AI-gegenereerde CSAM van echte slachtoffers van seksueel misbruik volgt. De Britse groep benadrukte ook afbeeldingen van beroemdheden die ouder worden en worden gemanipuleerd om als slachtoffers van misbruik te verschijnen, evenals gemanipuleerde foto's van beroemde kinderen.

“Alsof het niet genoeg is dat slachtoffers weten dat hun misbruik mogelijk in een donkere hoek van het internet wordt gedeeld, lopen ze nu het risico geconfronteerd te worden met nieuwe beelden van zichzelf die worden misbruikt op nieuwe en gruwelijke manieren die ze voorheen niet hadden gedacht”, aldus Hargreaves.

Een groot probleem met de proliferatie van levensechte AI-gegenereerde CSAM is dat het rechtshandhavingsmiddelen zou kunnen afleiden van het opsporen en verwijderen van daadwerkelijk misbruik, stelt de IWF.

De stichting, opgericht in 1996, is een non-profitorganisatie die zich toelegt op het monitoren van internet op inhoud van seksueel misbruik, met name gericht op kinderen.

In september heeft de IWF waarschuwde dat pedofielenbendes tips bespreken en uitwisselen over het maken van illegale afbeeldingen van kinderen met behulp van open-source AI-modellen die lokaal op pc's kunnen worden gedownload en uitgevoerd.

“Daders kunnen legaal alles downloaden wat ze nodig hebben om deze beelden te genereren, en vervolgens zoveel beelden produceren als ze willen, offline, zonder enige mogelijkheid tot detectie”, aldus de IWF.

De Britse groep riep op tot internationale samenwerking om de plaag van CSAM te bestrijden en stelde een aanpak op meerdere niveaus voor, inclusief wijzigingen in de relevante wetten, het actualiseren van de opleiding op het gebied van wetshandhaving en het instellen van regelgevend toezicht op AI-modellen.

Voor AI-ontwikkelaars beveelt de IWF aan om het gebruik van hun AI voor het maken van kindermisbruikmateriaal te verbieden, gerelateerde modellen te de-indexeren en prioriteit te geven aan het verwijderen van kindermisbruikmateriaal uit hun modellen.

“Dit is een mondiale kwestie die vereist dat landen samenwerken en ervoor zorgen dat de wetgeving geschikt is voor het beoogde doel”, zei Hargreaves in een verklaring die eerder werd gedeeld met decoderen, waarbij wordt opgemerkt dat de IWF effectief is geweest in het beperken van CSAM in zijn thuisland.

“Het feit dat minder dan 1% van de criminele inhoud in Groot-Brittannië wordt gehost, wijst op onze uitstekende samenwerking met de Britse politiediensten en -agentschappen, en we zullen ook actief samenwerken met de wetshandhaving op deze alarmerende nieuwe trend”, aldus Hargreaves. “We dringen er bij de Britse premier op aan om dit stevig op de agenda te zetten tijdens de mondiale AI-veiligheidstop die in november in Groot-Brittannië wordt georganiseerd.”

Terwijl de IWF zegt dat er in Groot-Brittannië verwijderingen plaatsvinden van darkweb-forums die illegale CSAM hosten, zei de groep dat de verwijdering ingewikkelder zou kunnen zijn als de website in andere landen wordt gehost.

Er zijn talloze gezamenlijke inspanningen om het misbruik van AI te bestrijden. In september zei Microsoft-president Brad Smith stelde voor om KYC-beleid te gebruiken dat is gemodelleerd naar het beleid van financiële instellingen om criminelen te helpen identificeren die AI-modellen gebruiken om desinformatie en misbruik te verspreiden.

De staat van Louisiana heeft in juli een wet aangenomen die de straf voor de verkoop en het bezit van door AI gegenereerde kinderpornografie verhoogt, waarin staat dat iedereen die veroordeeld is voor het maken, verspreiden of bezitten van onwettige deepfake-afbeeldingen waarop minderjarigen zijn afgebeeld, een verplichte gevangenisstraf van vijf tot twintig jaar kan krijgen, en een boete van maximaal tot $ 20, of beide.

In augustus heeft het Amerikaanse ministerie van Justitie zijn rapport bijgewerkt Burgergids voor de Amerikaanse federale wet inzake kinderporno bladzijde. Voor het geval er enige verwarring zou ontstaan, benadrukte het DOJ dat afbeeldingen van kinderpornografie niet beschermd zijn onder het Eerste Amendement en illegaal zijn volgens de federale wetgeving.

Blijf op de hoogte van cryptonieuws, ontvang dagelijkse updates in je inbox.

spot_img

Laatste intelligentie

spot_img