Logo Zéphyrnet

Le régulateur américain sonde ChatGPT d'OpenAI pour répandre des mensonges

Date :

La Federal Trade Commission (FTC) des États-Unis a lancé une enquête sur OpenAI concernant de potentielles violations des lois sur la protection des consommateurs liées à son chatbot IA ChatGPT, qui est accusé de diffuser de fausses informations et de bafouer les règles de confidentialité des données.

Selon un rapport du Washington Post, l'organisme de surveillance de la concurrence a envoyé une lettre de 20 pages à OpenAI exigeant des informations détaillées sur ses opérations commerciales, y compris sa politique de confidentialité, la technologie AI. mesures et processus de sécurité des données.

La lettre est la dernière initiative des régulateurs pour examiner les risques potentiels de l'IA générative, un type d'intelligence artificielle qui peut être utilisé pour créer des textes, des images et des vidéos réalistes et convaincants. ChatGPT lancé avec un grand succès en novembre, déclenchant une «course aux armements» de l'IA.

A lire également: Le chatbot Bard AI de Google lit désormais les images et parle, s'étend à l'UE

ChatGPT accusé de nuire aux utilisateurs

Par le rapport, la FTC enquête pour savoir si ChatGPT a causé du tort à des personnes en fournissant de mauvaises réponses à leurs questions. Il veut savoir si l'entreprise "s'est livrée à des pratiques déloyales ou trompeuses en matière de confidentialité ou de sécurité des données" qui ont porté atteinte à la réputation des utilisateurs.

La Federal Trade Commission a interrogé OpenAI sur les garanties qu'elle a mises en place pour empêcher ses modèles d'intelligence artificielle de "générer des déclarations sur de vrais individus qui sont fausses, trompeuses ou désobligeantes".

Le fondateur et PDG d'OpenAI, Sam Altman, a exprimé sa déception de n'avoir découvert l'enquête de la FTC que via une fuite dans le Washington Post. Écriture sur Twitter, Altman a déclaré que cette décision "n'aiderait pas à renforcer la confiance", mais a ajouté que la société travaillerait avec la FTC.

"Il est très important pour nous que notre technologie soit sûre et pro-consommateur, et nous sommes convaincus que nous respectons la loi", a-t-il déclaré. "Nous protégeons la vie privée des utilisateurs et concevons nos systèmes pour en savoir plus sur le monde, pas sur les particuliers."

Altman a également parlé de la dernière technologie d'OpenAI, GPT-4. Il a déclaré que le modèle a été "construit sur la base d'années de recherche sur la sécurité et a passé plus de 6 mois après la fin de la formation initiale, ce qui le rend plus sûr et plus aligné avant de le publier".

"Nous sommes transparents sur les limites de notre technologie, en particulier lorsque nous ne parvenons pas à le faire", a souligné le PDG.

Au moment de la rédaction de cet article, la Federal Trade Commission n'avait pas encore publié de commentaire officiel.

Plus de maux de tête juridiques pour OpenAI

L'enquête de la FTC n'est pas la seule contestation judiciaire qui OpenAI doit s'inquiéter. Comme MetaNews précédemment rapporté, OpenAI a été poursuivi pour 3 milliards de dollars dans le cadre d'un recours collectif accusant le créateur de ChatGPT d'avoir volé les données des utilisateurs.

Selon le plainte déposée auprès d'un tribunal fédéral de Californie le 28 juin, OpenAI aurait utilisé des "informations privées volées" pour "former et développer" ses produits, notamment ChatGPT 3.5, ChatGPT 4, Dall-E et Vall-E.

La semaine dernière, la comédienne Sarah Silverman et deux autres auteurs déposé un procès contre OpenAI et Meta, alléguant que les systèmes d'IA des entreprises ont été formés sur du matériel protégé par le droit d'auteur de leurs livres sans leur permission.

Les auteurs affirment que les entreprises ont utilisé des «bibliothèques fantômes» de matériel protégé par le droit d'auteur pour former leurs systèmes d'IA, et que cela constitue une violation du droit d'auteur.

Préoccupations réglementaires

Le développement rapide de l'IA a soulevé des inquiétudes quant aux risques potentiels de la technologie, tels que les préjugés, la discrimination et les violations de la vie privée. En conséquence, les régulateurs du monde entier commencent à accorder une attention particulière à l'industrie émergente.

Les gouvernements examinent comment les réglementations existantes, telles que celles régissant le droit d'auteur et la confidentialité des données, peuvent être appliquées à l'IA. Ils envisagent également de nouvelles règles qui pourraient être nécessaires. Deux domaines clés sont les données qui sont introduites dans les modèles d'IA et le contenu qu'ils génèrent.

Aux États-Unis, le chef de la majorité au Sénat, Chuck Schumer, a appelé à une "législation complète" pour garantir des garanties sur l'IA, a rapporté le Washington Post. Il s'est également engagé à organiser une série de forums plus tard cette année visant à "établir une nouvelle base pour la politique d'IA".

Récemment, le pape François libéré Lignes directrices pour le développement responsable de l'IA. Chine et Europe renforcent et affinent également les réglementations sur l'intelligence artificielle.

PARTAGER CETTE PUBLICATION

spot_img

Dernières informations

spot_img