Zephyrnet-logo

FTC vraagt ​​het publiek of ze bescherming willen tegen AI-namaakproducten

Datum:

De FTC is van plan om niet alleen de frauduleuze AI-nabootsing van regeringen en zakenmensen illegaal te maken, maar vraagt ​​het Amerikaanse publiek nu ook of zij ook enige bescherming willen. 

De Amerikaanse consumentenwaakhond aangekondigd Dat geldt ook voor donderdag, naast de introductie van een definitieve regel die de Commissie de mogelijkheid zal geven om rechtstreeks federale rechtszaken aan te spannen tegen AI-oplichters die zich richten op bedrijven en overheidsinstanties. De wijzigingen zullen het voor het bureau ook mogelijk maken om de makers van de code die bij dergelijke oplichting wordt gebruikt, sneller te targeten.

Het oorspronkelijke voorstel heeft echter geen betrekking op de nabootsing van privépersonen. Dus de FTC geeft vrij dit [PDF] aanvullende mededeling waarin om publiek commentaar wordt gevraagd over de vraag of zij ook onder de nieuwe regels moeten vallen.

“Fraudeurs gebruiken AI-tools om individuen met griezelige precisie en op veel grotere schaal na te bootsen”, zegt FTC-voorzitter Lina Khan. “Nu het klonen van stemmen en andere AI-gestuurde oplichting in opkomst zijn, is het beschermen van Amerikanen tegen nabootsingsfraude belangrijker dan ooit.” 

Naast het simpelweg illegaal maken om zich voor te doen als een ander individu om fraude te plegen, bevat het voorstel ook een bepaling om bedrijven aansprakelijk te stellen voor misbruik van de technologie die ze creëren.  

De zogenaamde ‘middelen en instrumenten’-bepaling in het voorstel zou de FTC de mogelijkheid geven om bedrijven die AI-technologie creëren die kan worden gebruikt om mensen na te bootsen, ter verantwoording te roepen als ze ‘reden hadden om te weten dat de goederen en diensten die ze leverden gebruikt voor imitaties”, aldus de FTC.

Ondanks een bepaling om ontwikkelaars verantwoordelijk te houden voor misbruik van hun technologie, is het niet duidelijk wie, en in welke mate, organisaties vervolgd kunnen worden. 

Volgens het voorstel is het illegaal voor een oplichter om iemand te bellen of een bericht te sturen terwijl hij zich voordoet als een ander individu, om fysieke post te sturen waarin een verkeerde voorstelling van zaken wordt gegeven, om een ​​website, een social media-profiel of een e-mailadres aan te maken waarin hij zich voordoet als een persoon of om advertenties te plaatsen die zich voordoen als een persoon of hun filialen.

Of de organisaties die frauduleuze berichten verzenden aansprakelijk kunnen worden gehouden, samen met bedrijven die de creatie van AI-stemmen en video faciliteren, is niet duidelijk. We hebben de FTC om opheldering gevraagd, maar hebben nog niets gehoord.

De FCC heeft eerder deze maand haar eigen maatregelen genomen om de nabootsing van AI te bestrijden en besloot dat dit het geval was illegaal om door AI gegenereerde stemmen te gebruiken in robocalls. In tegenstelling tot deze nieuw voorgestelde FTC-regel heeft de FCC eenvoudigweg verduidelijkt dat bestaande wetten voor de bescherming van telefoonconsumenten ook het gebruik van door AI gegenereerde stemmen omvatten. ®

spot_img

Laatste intelligentie

spot_img