Logo Zéphyrnet

DeepMind dévoile un nouveau chatbot IA 

Date :

image

Le chatbot utilise une recherche Google en direct et la réponse de l'utilisateur pour créer un modèle de langage plus sûr et plus précis

La semaine dernière, le laboratoire d'IA appartenant à Alphabet DeepMind a lancé sa nouvelle offre de chatbot, baptisée Sparrow. 

Conçu comme un outil conversationnel et informatif, Sparrow a été formé à l'aide du modèle de langage Chinchilla de DeepMind et est intégré à un outil Google en direct afin qu'il puisse rechercher rapidement pour répondre aux questions des utilisateurs. L'apprentissage par renforcement a également été utilisé pour affiner les capacités de Sparrow, les commentaires des utilisateurs étant intégrés au développement de l'outil.  

Le nouveau chatbot est envisagé comme une réponse aux problèmes actuels de création d'IA conversationnelles qui analysent Internet à la recherche d'informations sans relayer de contenu potentiellement dangereux, tout en conservant un niveau d'autonomie conversationnelle. Comme l'a écrit l'équipe Sparrow dans un blog, la création d'un dialogue autonome est une tâche complexe car elle se caractérise par une « communication flexible et interactive ».

"Cependant", ont-ils ajouté, "les agents de dialogue alimentés par de grands modèles de langage peuvent exprimer des informations inexactes ou inventées, utiliser un langage discriminatoire ou encourager un comportement dangereux". 

En utilisant des réponses humaines pour développer son outil, DeepMind espère avoir réduit la quantité d'informations inutiles ou nuisibles relayées par le bot. Pour tester cela, l'équipe a présenté aux participants humains plusieurs réponses potentielles à une question et leur a demandé de sélectionner la réponse la plus pertinente ou la plus utile, en l'utilisant pour former le système d'IA sur les types de réponses qu'il devrait donner. 

La création d'un chatbot qui extrait également des informations de sources externes, selon l'équipe, augmente sa précision, l'équipe affirmant que Sparrow a correctement cité des preuves 78% du temps pour des questions factuelles. 

Les craintes concernant les dangers potentiels des outils linguistiques intelligents ont augmenté à mesure que ces appareils sont devenus plus intelligents, la demande d'IA explicable alimentant désormais le marché. Le développement intervient également à la suite de controverses autour du chatbot de Google revendiqué comme sensible par un ingénieur désormais licencié. Tout en posant un autre type de danger potentiel, l'effet est toujours de pousser la demande pour des modèles conversationnels d'IA plus sûrs. 

spot_img

Dernières informations

spot_img

Discutez avec nous

Salut! Comment puis-je t'aider?