Logo Zéphyrnet

Ce robot prédit quand vous sourirez, puis vous sourit à nouveau au bon moment

Date :

Les clubs de comédie sont mes sorties préférées du week-end. Rassemblez des amis, prenez quelques verres, et quand une blague arrive à nous tous, il y a un moment magique où nos regards se croisent et nous partageons un sourire effronté.

Le sourire peut transformer des étrangers en amis les plus chers. Cela stimule rencontre-mignon Hollywood complote, répare les relations brisées et est inextricablement lié à des sentiments de joie flous et chaleureux.

Du moins pour les gens. Pour les robots, leurs tentatives de sourire authentique tombent souvent dans l’étrange vallée – suffisamment proches pour ressembler à un humain, mais provoquant une touche de malaise. Logiquement, vous savez ce qu'ils essaient de faire. Mais l’intuition vous dit que quelque chose ne va pas.

C'est peut-être à cause du timing. Les robots sont entraînés à imiter l’expression d’un sourire. Mais ils ne savent pas quand afficher le sourire. Lorsque les humains se connectent, nous sourions véritablement en tandem sans aucune planification consciente. Les robots prennent le temps d'analyser les expressions faciales d'une personne pour reproduire un sourire. Pour un humain, même quelques millisecondes de retard soulèvent les poils sur la nuque – comme dans un film d’horreur, quelque chose semble manipulateur et faux.

La semaine dernière, une équipe de l'Université de Columbia a montré un algorithme qui apprend aux robots à partager le sourire avec leurs opérateurs humains. L'IA analyse de légers changements faciaux pour prédire les expressions de ses opérateurs environ 800 millisecondes avant qu'ils ne se produisent, juste le temps pour que le robot sourie en retour.

L’équipe a formé un visage humanoïde robotique doux appelé Emo pour anticiper et faire correspondre les expressions de son compagnon humain. Avec son visage en silicone teinté de bleu, Emo ressemble à un extraterrestre de science-fiction des années 60. Mais il souriait volontiers avec son partenaire humain sur la même longueur d'onde « émotionnelle ».

Les robots humanoïdes sont souvent maladroits et guindés lorsqu'ils communiquent avec les humains, écrit Dr Rachael Jack de l'Université de Glasgow, qui n'a pas participé à l'étude. ChatGPT et d'autres algorithmes de langage à grande échelle peuvent déjà donner au discours d'une IA un son humain, mais les communications non verbales sont difficiles à reproduire.

Programmer des compétences sociales – au moins pour l’expression faciale – dans des robots physiques est une première étape pour aider « les robots sociaux à rejoindre le monde social humain », a-t-elle écrit.

Sous le capot

Du axe robotique aux robots-serveurs qui vous apportent de la nourriture et des boissons, robots autonomes entrent de plus en plus dans nos vies.

À Londres, New York, Munich et Séoul, des Collaboratif parcourez des aéroports chaotiques en offrant une assistance client : enregistrement, recherche d'une porte d'embarquement ou récupération des bagages perdus. À Singapour, plusieurs robots de sept pieds de haut avec une vision à 360 degrés parcourir un aéroport signaler des problèmes de sécurité potentiels. Pendant la pandémie, chiens robots distanciation sociale imposée.

Mais les robots peuvent faire bien plus. Pour les tâches dangereuses, comme le nettoyage des décombres de maisons ou de ponts détruits, ils pourraient être les pionniers des efforts de sauvetage et accroître la sécurité des premiers intervenants. Face à une population mondiale de plus en plus vieillissante, ils pourraient aider les infirmières à soutenir les personnes âgées.

Courant robots humanoïdes sont adorables d’un point de vue caricatural. Mais l’ingrédient principal pour que les robots entrent dans notre monde est la confiance. Alors que les scientifiques construisent des robots aux visages de plus en plus humains, nous voulons que leurs expressions correspondent à nos attentes. Il ne s’agit pas seulement d’imiter une expression faciale. Un véritable sourire partagé « ouais, je sais » sur une blague digne de ce nom forme un lien.

Les communications non verbales – expressions, gestes des mains, postures corporelles – sont des outils que nous utilisons pour nous exprimer. Avec ChatGPT et autres IA générative, les machines peuvent déjà « communiquer en vidéo et verbalement » a affirmé Valérie Plante. l'auteur de l'étude, le Dr Hod Lipson, à Sciences.

Mais lorsqu'il s'agit du monde réel – où un regard, un clin d'œil et un sourire peuvent faire toute la différence – c'est « un canal qui manque actuellement », a déclaré Lipson. « Sourire au mauvais moment pourrait se retourner contre vous. [Si même quelques millisecondes sont trop tard], on a peut-être l'impression que vous vous complaisez.

Say Cheese

Pour amener les robots à une action non verbale, l’équipe s’est concentrée sur un aspect : un sourire partagé. Des études antérieures ont préprogrammé des robots pour imiter un sourire. Mais comme ils ne sont pas spontanés, cela provoque un léger retard, mais perceptible, et donne au sourire un faux aspect.

« Il y a beaucoup de choses qui entrent dans la communication non verbale » et qui sont difficiles à quantifier, a déclaré Lipson. "La raison pour laquelle nous devons dire 'fromage' lorsque nous prenons une photo est que sourire à la demande est en fait assez difficile."

La nouvelle étude s’est concentrée sur le timing.

L’équipe a conçu un algorithme qui anticipe le sourire d’une personne et fait sourire en tandem un visage animatronique de type humain. Appelé Emo, le visage robotique comporte 26 engrenages – pensez à des muscles artificiels – enveloppés dans une « peau » en silicone extensible. Chaque équipement est attaché au « squelette » robotique principal avec des aimants pour déplacer ses sourcils, ses yeux, sa bouche et son cou. Les yeux d'Emo sont dotés de caméras intégrées pour enregistrer son environnement et contrôler les mouvements de ses globes oculaires et ses clignements.

À lui seul, Emo peut suivre ses propres expressions faciales. Le but de la nouvelle étude était de l'aider à interpréter les émotions des autres. L'équipe a utilisé une astuce que tout adolescent introverti pourrait connaître : ils ont demandé à Emo de se regarder dans le miroir pour apprendre à contrôler ses engrenages et à former une expression faciale parfaite, comme un sourire. Le robot a progressivement appris à faire correspondre ses expressions avec des commandes motrices, par exemple « lever les joues ». L’équipe a ensuite supprimé toute programmation susceptible de trop étirer le visage, blessant ainsi la peau de silicium du robot.

« Il s’avère que…[créer] un visage de robot capable de sourire était incroyablement difficile d’un point de vue mécanique. C'est plus difficile que de fabriquer une main robotique », a déclaré Lipson. « Nous sommes très doués pour repérer les sourires inauthentiques. Nous y sommes donc très sensibles.

Pour contrer cette étrange vallée, l'équipe a formé Emo à prédire les mouvements du visage à l'aide de vidéos d'humains riant, surpris, fronçant les sourcils, pleurant et faisant d'autres expressions. Les émotions sont universelles : lorsque vous souriez, les coins de votre bouche se courbent en un croissant de lune. Quand tu pleures, les sourcils se froncent.

L’IA a analysé les mouvements du visage de chaque scène image par image. En mesurant les distances entre les yeux, la bouche et d'autres « repères faciaux », l'équipe a trouvé des signes révélateurs qui correspondent à une émotion particulière. Par exemple, un pincement du coin de la bouche suggère un soupçon de sourire, alors qu'un mouvement vers le bas peut descendre dans un froncement de sourcils.

Une fois entraînée, l’IA a mis moins d’une seconde pour reconnaître ces repères faciaux. Lorsqu'il alimentait Emo, le visage du robot pouvait anticiper un sourire basé sur les interactions humaines en une seconde, de sorte qu'il souriait avec son participant.

Pour être clair, l’IA ne « ressent » pas. Au contraire, il se comporte comme le ferait un humain lorsqu’il rit devant un stand-up amusant avec un sourire semblant authentique.

Les expressions faciales ne sont pas les seuls indices que nous remarquons lorsque nous interagissons avec les gens. Des secousses de tête subtiles, des hochements de tête, des sourcils levés ou des gestes de la main font tous une marque. Quelles que soient les cultures, les « euh », les « ahh » et les « j'aime » – ou leurs équivalents – sont intégrés dans les interactions quotidiennes. Pour l’instant, Emo est comme un bébé qui a appris à sourire. Il ne comprend pas encore d'autres contextes.

«Il reste encore beaucoup à faire» a affirmé Valérie Plante. Lipson. Nous ne faisons qu’effleurer la surface des communications non verbales pour l’IA. Mais « si vous pensez qu’il est intéressant de s’engager avec ChatGPT, attendez simplement que ces choses deviennent physiques et que tous les paris soient ouverts ».

Crédit image: Yuhang Hu, Columbia Engineering via YouTube

spot_img

Dernières informations

spot_img