Logo Zéphyrnet

De grands noms rejoignent Biden dans AI Safety Group, notamment OpenAI, Microsoft, Google, Apple et Amazon

Date :

Quatre mois après avoir publié un décret exigeant que l'intelligence artificielle soit construite et utilisée en toute sécurité, l'administration Biden a aujourd'hui annoncé le lancement du US AI Safety Institute Consortium (AISIC). Le nouveau consortium compte plus de 200 représentants, dont Amazon, Google, Apple, Anthropic, Microsoft, OpenAI et NVIDIA.

Le consortium rassemble des développeurs d’IA, des universitaires, des chercheurs gouvernementaux et industriels, des organisations de la société civile et des utilisateurs unis pour « le développement et le déploiement d’une intelligence artificielle sûre et fiable ».

"Le président Biden nous a demandé d'utiliser tous les leviers pour atteindre deux objectifs clés : établir des normes de sécurité et protéger notre écosystème d'innovation", a déclaré la secrétaire au Commerce, Gina Raimondo, dans un communiqué. "C'est précisément ce que le Consortium américain de l'AI Safety Institute a été créé pour nous aider à faire."

Elle a expliqué que le consortium est issu du Décret Le président américain Biden a signé en octobre. Que de commander comprenait l’élaboration de lignes directrices pour l’évaluation des modèles d’IA, la gestion des risques, la sûreté et la sécurité et l’application de filigranes au contenu généré par l’IA.

« Nous veillerons à ce que l’Amérique soit en tête du peloton », a affirmé Raimando. "En travaillant avec ce groupe de dirigeants de l'industrie, de la société civile et du monde universitaire, nous pouvons ensemble relever ces défis pour développer les mesures et les normes dont nous avons besoin pour maintenir l'avantage concurrentiel de l'Amérique et développer l'IA de manière responsable."

Le consortium accueille des représentants des secteurs de la santé, du monde universitaire, des syndicats et du secteur bancaire, notamment JP Morgan, Citigroup, Carnegie Mellon University, Bank of America, Ohio State University et Georgia Tech Research Institute, ainsi que des gouvernements étatiques et locaux. représentants.

Les partenaires internationaux devraient également collaborer.

"Le consortium représente le plus grand ensemble d'équipes de test et d'évaluation créées à ce jour et se concentrera sur l'établissement des bases d'une nouvelle science de mesure dans le domaine de la sécurité de l'IA", a déclaré le ministère du Commerce. « Le consortium… travaillera avec des organisations de pays partageant les mêmes idées et qui ont un rôle clé à jouer dans le développement d’outils interopérables et efficaces pour la sécurité dans le monde entier. »

La liste des entreprises participantes est si vaste qu’il peut être plus utile de noter quelles entreprises n’y ont pas adhéré. Parmi les dix plus grandes entreprises technologiques non représentées figurent Tesla, Oracle et Broadcom. TSMC n'est pas non plus cotée, mais n'est pas non plus une société basée aux États-Unis.

La diffusion rapide des outils d’IA générative dans le grand public a conduit à d’innombrables cas d’utilisation abusive et à une vague de deepfakes en ligne générés par l’IA. Dirigeants mondiaux, y compris le président Biden et ancien président Donald Trump– ont été la cible de bon nombre de ces fausses images. Jeudi, la Commission fédérale des communications des États-Unis a annoncé que les communications générées par l'IA robocalls l’utilisation de fausses voix est illégale aux États-Unis.

"L'augmentation de ce type d'appels s'est intensifiée au cours des dernières années, car cette technologie a désormais le potentiel de confondre les consommateurs avec de la désinformation en imitant les voix de célébrités, de candidats politiques et de membres de la famille proche", a déclaré la FCC.

Depuis le lancement de GPT-4 au début de l’année dernière, les dirigeants mondiaux se demandent comment régner sur le développement de l’IA. En mai dernier, l’administration Biden la ficelle d'étiquettes/étiquettes volantes en carton avec plusieurs entreprises d’IA et de technologie, dont beaucoup font désormais partie du consortium. OpenAI, Google, Microsoft, Nvidia, Anthropic, Hugging Face, IBM, Stability AI, Amazon, Meta et Inflection ont tous signé un engagement à développer l'IA de manière responsable.

"Aucun d'entre nous ne peut réussir l'IA à lui seul", avait précédemment déclaré Kent Walker, président des affaires mondiales de Google. a affirmé Valérie Plante.. « Nous sommes heureux de nous joindre à d'autres grandes sociétés d'IA pour soutenir ces engagements, et nous nous engageons à continuer de travailler ensemble en partageant des informations et des meilleures pratiques. »

Édité par Ryan Ozawa.

Restez au courant des actualités cryptographiques, recevez des mises à jour quotidiennes dans votre boîte de réception.

spot_img

Dernières informations

spot_img