Logo Zéphyrnet

Le gouvernement américain met en place le National Artificial Intelligence Initiative Office à la dernière minute avant la fin de la présidence de Trump

Date :

En bref Quelques jours seulement avant le départ du président Trump, la Maison Blanche a créé son Bureau national d’initiative en matière d’intelligence artificielle, qui relèvera du Bureau de la politique scientifique et technologique.

L’organisation sera chargée d’aider l’industrie et le monde universitaire à travailler ensemble pour garantir que le développement de l’IA soit conforme à la stratégie américaine. Cela aidera également à adopter de nouvelles politiques et à établir des initiatives de financement de la R&D. Cette décision constitue l’un des efforts ultimes de Trump pour établir quelque chose de potentiellement durable dans le domaine pendant son mandat au gouvernement.

« Grâce aux efforts historiques de l’administration Trump et à l’enthousiasme et à l’activité sans précédent du secteur privé et du monde universitaire, les États-Unis restent le leader mondial de l’intelligence artificielle. » selon à une déclaration.

« Le nouveau Bureau national d’initiative en matière d’IA de la Maison Blanche fera partie intégrante des efforts du gouvernement fédéral visant à maintenir cette position de leader pendant de nombreuses années à venir. »

L’outil de reconnaissance faciale utilisé pour sélectionner les candidats a été abandonné

HireVue, une entreprise de logiciels qui a développé l'un des algorithmes de sélection d'emploi les plus utilisés, a abandonné sa fonction controversée de reconnaissance faciale.

Les traits du visage des candidats ont été analysés au fur et à mesure qu'ils s'exprimaient lors d'entretiens via webcam. Avec d'autres données, telles que le ton de leur voix et les mots prononcés, les candidats à un emploi ont été marqués par le code sur des qualités telles que la convivialité et la fiabilité.

Les experts estiment que ces logiciels souffrent de préjugés et ne devraient pas être utilisés lorsque les moyens de subsistance des populations sont en jeu. En 2019, l'Electronic Privacy Information Center, une organisation à but non lucratif, déposé une plainte la Federal Trade Commission américaine alléguant que HireVue « avait commis des pratiques déloyales et trompeuses en violation de la loi FTC ».

Aujourd’hui, la société a supprimé sa fonctionnalité la plus controversée. "Cela ajoutait de la valeur aux clients, mais cela n'en valait pas la peine", a déclaré le PDG de HireVue. dit Wired.

Personnalisez Amazon Alexa avec votre propre mot d'activation, par exemple : oi !

Amazon a lancé Alexa Custom Assistant, une plateforme qui permet aux organisations d'adapter l'assistant intelligent à commande vocale à leur propre usage.

"L'assistant personnalisé Alexa est construit directement sur la technologie Alexa, offrant aux entreprises un accès à une technologie d'IA vocale de classe mondiale, en constante amélioration, personnalisée avec un mot d'activation, une voix, des compétences et des capacités uniques", le géant de l'Internet. a affirmé Valérie Plante..

Par exemple, certains constructeurs automobiles, dont Fiat Chrysler Automobiles, se sont engagés en tant que clients à utiliser le logiciel d'Alexa pour alimenter les haut-parleurs intelligents de leurs voitures. Les développeurs ne sont pas tenus de déployer l’unité d’assistant physique d’Amazon ; c'est un logiciel qu'ils peuvent utiliser sur leur propre matériel. Amazon espère qu'en ouvrant le service aux entreprises, son système basé sur l'apprentissage automatique sera intégré aux applications mobiles, aux gadgets et même aux jeux vidéo.

Le plus grand réseau neuronal avec plus de mille milliards de paramètres

Les Googleurs ont construit un énorme modèle de langage avec 1.6 billion de paramètres époustouflants, soit plus de neuf fois celui du système GPT-3 d’OpenAI. Les modèles linguistiques font fureur en ce moment, et l’astuce particulière de celui-ci semble être la manière efficace dont il a été enseigné.

Le modèle Goliath a été formé sur 750 Go de texte récupéré sur Internet, ce qui nécessiterait beaucoup de ressources informatiques pour analyser toutes ces données. Les Googleurs ont réussi à le faire avec seulement 32 cœurs TPU, nous dit-on, grâce à une nouvelle technique qu’ils appellent les Switch Transformers. Le papier décrire la méthode est ahurissant. Essentiellement, le modèle de 1.6 billion de paramètres est optimisé pour la formation car il peut gérer plus efficacement les multiplications matricielles clairsemées.

"Nous y parvenons en concevant un modèle peu activé qui utilise efficacement du matériel conçu pour les multiplications matricielles denses telles que les GPU et les TPU", indique le document. « Dans notre configuration de formation distribuée, nos couches peu activées répartissent des poids uniques sur différents appareils. Par conséquent, le poids du modèle augmente avec le nombre d’appareils, tout en conservant une mémoire et une empreinte informatique gérables sur chaque appareil. ®

Source : https://go.theregister.com/feed/www.theregister.com/2021/01/18/ai_in_brief/

spot_img

Dernières informations

spot_img