Logo Zéphyrnet

OpenAI fait face à des critiques après l'interview du CTO sur Sora

Date :

OpenAI, l'influent laboratoire de recherche en intelligence artificielle à l'origine d'outils révolutionnaires tels que ChatGPT et Sora, s'est retrouvé dans une situation délicate à la suite d'un récent entretien avec sa directrice de la technologie, Mira Murati.

L'interview, menée par la journaliste du Wall Street Journal Joanna Stern, s'est concentrée sur le dernier système de génération d'images, ou plutôt de vidéos, d'OpenAI, Sora.

Les inquiétudes se concentrent sur l'utilisation abusive potentielle d'œuvres protégées par le droit d'auteur pour former des modèles d'IA et le le manque de transparence d'OpenAI concernant ses pratiques en matière de données.

Les données d'entraînement de Sora sont en question

Au cœur de la controverse se trouve la question des données de formation, les ensembles de données massifs utilisés pour former les modèles d’IA.

Interrogé sur les sources de données utilisées pour Sora, Murati a fourni la réponse standard : le modèle avait été formé sur "données accessibles au public et sous licence" .

Cependant, une enquête plus approfondie a révélé des hésitations et des incertitudes de la part de Murati quant aux détails spécifiques de cet ensemble de données.

Cette réponse a drapeaux rouges soulevés entre artistes, photographes et experts en propriété intellectuelle. Les systèmes de génération d’images d’IA dépendent fortement de l’ingestion de grandes quantités d’images, dont beaucoup peuvent être protégées par le droit d’auteur. Le manque de clarté autour des données de formation de Sora soulève des questions quant à savoir si OpenAI a correctement protégé les droits des créateurs de contenu.

Polémique sur les données de formation OpenAI SORA
La base de données de formation de Sora n'a été publiée sur aucune plateforme officielle (Crédit image)

Utilisation de Shutterstock admise plus tard

Le refus initial de Murati de se demander si les images Shutterstock faisaient partie de l'ensemble de données d'entraînement de Sora a ajouté de l'huile sur le feu. Ce n'est qu'après l'interview, dans une note de bas de page ajoutée par le Wall Street Journal, que Murati a confirmé l'utilisation de la bibliothèque d'images de Shutterstock.

Cette confirmation contredit la position publique d'OpenAI de «données accessibles au public et sous licence» et suggère une tentative de dissimulation de pratiques d’approvisionnement potentiellement problématiques.

Shutterstock et OpenAI ont formé un partenariat accorder à OpenAI les droits d'utilisation de la bibliothèque d'images de Shutterstock pour former des modèles de génération d'images tels que DALL-E 2 et potentiellement Sora.

En échange, les contributeurs de Shutterstock (les photographes et artistes dont les images sont sur la plateforme) reçoivent une compensation lorsque leur travail est utilisé dans le développement de ces modèles d'IA.

Un cauchemar de relations publiques se déroule

On peut affirmer sans se tromper que la plupart des responsables des relations publiques ne considéreraient pas cette interview comme un chef-d’œuvre en matière de relations publiques.

Le manque de clarté de Murati arrive à un moment sensible pour OpenAI, déjà confronté à d'importantes poursuites pour droits d'auteur, dont une importante déposée par le New York Times.

Le public scrute des pratiques telles que l'utilisation secrète présumée par OpenAI de vidéos YouTube pour la formation de modèles, ainsi que précédemment rapporté par The Information. Avec des parties prenantes allant des artistes aux politiciens exigeant des comptes, l’évitement de Murati ne fait qu’alimenter le feu.

L'approche opaque d'OpenAI se retourne contre elle de façon spectaculaire, transformer l'interview de Sora en un désastre de relations publiques.

La transparence n'est pas le sujet le plus discuté pour rien

Cet incident souligne une vérité essentielle : dévoiler la vérité est primordial dans le monde de l’IA. Les réponses hésitantes d'OpenAI ont gravement miné la confiance du public et intensifié les questions sur ses pratiques éthiques. La controverse sur Sora met en lumière le chœur grandissant exiger une plus grande responsabilité au sein de l’industrie de l’IA.

La réticence de Murati à divulguer les détails des données de formation de Sora méfiance et crée un dangereux précédent.

Sans la clarté qu’exigent les artistes, les créateurs et le public, les débats éthiques et les possibilités de poursuites judiciaires ne feront que s’intensifier.

Il n'y a pas d'anges dans ce pays

Bien qu'une grande partie de l'examen actuel porte directement sur OpenAI, il est crucial de se rappeler ils ne sont pas les seuls joueurs dans le jeu.

Recherche sur l'IA de Facebook Modèle LLaMA ainsi que Les Gémeaux de Google ont également été confrontés à des allégations de sources de données de formation problématiques.

Polémique sur les données de formation OpenAI SORA
La question de la transparence dans les développements de l’IA est à l’ordre du jour depuis longtemps (Crédit image)

Cela n'est pas surprenant, car Rapports d'initiés d'affaires que Meta a déjà admis en utilisant les publications Instagram et Facebook pour entraîner ses modèles d’IA. En plus, Le contrôle de Google sur de vastes pans d'Internet leur donne un accès sans précédent à des données de formation potentielles, soulevant des préoccupations éthiques similaires concernant le consentement et le droit d'auteur.

La situation avec Sora d'OpenAI est juste une pièce d'un puzzle plus grand. L’ensemble du domaine du développement de l’IA est soumis à un examen minutieux en ce qui concerne ses pratiques en matière de données et ses implications éthiques potentielles.


Crédit d'image en vedette: Freepik.

spot_img

Dernières informations

spot_img