Zephyrnet-logo

Deze robot voorspelt wanneer je zult glimlachen en grijnst dan meteen weer terug

Datum:

Comedyclubs zijn mijn favoriete weekenduitjes. Verzamel een paar vrienden, pak een paar drankjes en als er een grap voor ons allemaal binnenkomt, is er een magisch moment waarop onze ogen elkaar ontmoeten en we een brutale grijns delen.

Glimlachen kan van vreemden de dierbaarste vrienden maken. Het spoort aan ontmoet-schattig Hollywood complotten, herstelt verbroken relaties en is onlosmakelijk verbonden met vage, warme gevoelens van vreugde.

In ieder geval voor mensen. Voor robots vallen hun pogingen tot oprechte glimlachen vaak in de griezelige vallei – dichtbij genoeg om op een mens te lijken, maar een vleugje ongemak veroorzaken. Logischerwijs weet je wat ze proberen te doen. Maar onderbuikgevoelens vertellen je dat er iets niet klopt.

Het kan door de timing komen. Robots zijn getraind om de gezichtsuitdrukking van een glimlach na te bootsen. Maar ze weten niet wanneer ze de grijns moeten aanzetten. Wanneer mensen verbinding maken, glimlachen we oprecht samen, zonder enige bewuste planning. Robots hebben tijd nodig om de gezichtsuitdrukkingen van een persoon te analyseren en een grijns te reproduceren. Voor een mens doet zelfs een milliseconde vertraging de haren in de nek de hoogte ingaan – net als in een horrorfilm voelt iets manipulatief en verkeerd aan.

Vorige week een team van Columbia University liet een algoritme zien dat robots leert een glimlach te delen met hun menselijke operators. De AI analyseert kleine gezichtsveranderingen om de gezichtsuitdrukkingen van de operators ongeveer 800 milliseconden voordat ze plaatsvinden te voorspellen – net genoeg tijd voor de robot om terug te grijnzen.

Het team trainde een zacht robotachtig mensachtig gezicht genaamd Emo om te anticiperen op de uitdrukkingen van zijn menselijke metgezel en deze te matchen. Met een blauw gekleurd siliconen gezicht ziet Emo eruit als een sciencefiction-alien uit de jaren 60. Maar hij grijnsde graag mee met zijn menselijke partner op dezelfde ‘emotionele’ golflengte.

Humanoïde robots zijn vaak onhandig en hoogdravend als ze met mensen communiceren. schreef Dr. Rachael Jack van de Universiteit van Glasgow, die niet bij het onderzoek betrokken was. ChatGPT en andere grote taalalgoritmen kunnen de spraak van een AI al menselijk laten klinken, maar non-verbale communicatie is moeilijk te repliceren.

Het programmeren van sociale vaardigheden – althans voor gezichtsuitdrukking – in fysieke robots is een eerste stap in de richting van het helpen van ‘sociale robots om zich aan te sluiten bij de menselijke sociale wereld’, schreef ze.

Onder de motorkap

Van robotas tot robo-servers die je eten en drinken brengen, autonome robots komen steeds meer in ons leven terecht.

In Londen, New York, München en Seoul autonoom robots zoef door chaotische luchthavens en bied klantenondersteuning: inchecken, een gate vinden of verloren bagage terugvinden. In Singapore staan ​​verschillende twee meter hoge robots met 360 graden zicht een luchthaven rondlopen het signaleren van potentiële veiligheidsproblemen. Tijdens de pandemie is robot honden gedwongen sociale afstand.

Maar robots kunnen meer. Voor gevaarlijke klussen – zoals het opruimen van de wrakstukken van vernielde huizen of bruggen – zouden ze pionierswerk kunnen doen bij reddingsinspanningen en de veiligheid voor eerstehulpverleners kunnen vergroten. Nu de wereldbevolking steeds ouder wordt, kunnen ze verpleegkundigen helpen ouderen te ondersteunen.

Actueel humanoïde robots zijn cartoonachtig schattig. Maar het belangrijkste ingrediënt voor robots om onze wereld te betreden is vertrouwen. Terwijl wetenschappers robots bouwen met steeds meer mensachtige gezichten, willen we dat hun uitdrukkingen aan onze verwachtingen voldoen. Het gaat niet alleen om het nabootsen van een gezichtsuitdrukking. Een oprechte gedeelde ‘ja ik weet het’-glimlach boven een ineenkrimpende grap vormt een band.

Non-verbale communicatie – uitdrukkingen, handgebaren, lichaamshoudingen – zijn hulpmiddelen die we gebruiken om onszelf uit te drukken. Met ChatGPT en andere generatieve AIkunnen machines al ‘via video en mondeling communiceren’ zei studieauteur Dr. Hod Lipson aan Wetenschap.

Maar als het om de echte wereld gaat – waar een blik, een knipoog en een glimlach het verschil kunnen maken – is het “een kanaal dat momenteel ontbreekt”, aldus Lipson. “Op het verkeerde moment glimlachen kan averechts werken. [Als je zelfs maar een paar milliseconden te laat bent], voelt het misschien alsof je toegeeft.”

Zeg kaas

Om robots non-verbale actie te laten ondernemen, concentreerde het team zich op één aspect: een gedeelde glimlach. Eerdere onderzoeken hebben robots voorgeprogrammeerd om een ​​glimlach na te bootsen. Maar omdat ze niet spontaan zijn, veroorzaakt dit een kleine maar merkbare vertraging en ziet de grijns er nep uit.

“Er zijn veel dingen die betrokken zijn bij non-verbale communicatie” die moeilijk te kwantificeren zijn, zei Lipson. "De reden dat we 'kaas' moeten zeggen als we een foto maken, is omdat glimlachen op verzoek eigenlijk best moeilijk is."

Het nieuwe onderzoek richtte zich op timing.

Het team heeft een algoritme ontwikkeld dat anticipeert op de glimlach van een persoon en tegelijkertijd een mensachtig animatronisch gezicht laat grijnzen. Het robotgezicht, genaamd Emo, heeft 26 versnellingen – denk aan kunstmatige spieren – gehuld in een rekbare siliconen ‘huid’. Elk tandwiel is met magneten aan het hoofdrobotskelet bevestigd om de wenkbrauwen, ogen, mond en nek te bewegen. Emo's ogen hebben ingebouwde camera's om de omgeving vast te leggen en de oogbolbewegingen en knipperbewegingen te controleren.

Op zichzelf kan Emo zijn eigen gezichtsuitdrukkingen volgen. Het doel van de nieuwe studie was om de emoties van anderen te helpen interpreteren. Het team gebruikte een truc die elke introverte tiener misschien kent: ze vroegen Emo om in de spiegel te kijken om te leren hoe hij de versnellingen moest bedienen en een perfecte gezichtsuitdrukking kon vormen, zoals een glimlach. De robot leerde geleidelijk zijn gezichtsuitdrukkingen af ​​te stemmen op motorische commando’s, bijvoorbeeld ‘de wangen optillen’. Het team verwijderde vervolgens alle programmering die het gezicht mogelijk te veel zou kunnen uitrekken, waardoor de siliconenhuid van de robot zou worden beschadigd.

“Het blijkt dat... het maken van een robotgezicht dat kan lachen vanuit mechanisch oogpunt een enorme uitdaging was. Het is moeilijker dan het maken van een robothand”, aldus Lipson. “Wij zijn heel goed in het herkennen van een niet-authentieke glimlach. Dus daar zijn we heel gevoelig voor.”

Om de griezelige vallei tegen te gaan, heeft het team Emo getraind om gezichtsbewegingen te voorspellen met behulp van video's van mensen die lachen, verrast zijn, fronsen, huilen en andere uitdrukkingen maken. Emoties zijn universeel: als je lacht, krullen je mondhoeken in een halve maan. Als je huilt, fronsen de wenkbrauwen samen.

De AI analyseerde gezichtsbewegingen van elke scène frame voor frame. Door de afstanden tussen de ogen, mond en andere ‘gezichtsherkenningspunten’ te meten, werden veelbetekenende signalen gevonden die overeenkomen met een bepaalde emotie. Een opstaande mondhoek suggereert bijvoorbeeld een vleugje glimlach, terwijl een neerwaartse beweging kan duiden op een glimlach. afdalen in een frons.

Eenmaal getraind had de AI minder dan een seconde nodig om deze gezichtsherkenningspunten te herkennen. Bij het aandrijven van Emo kon het robotgezicht binnen een seconde anticiperen op een glimlach op basis van menselijke interacties, zodat het met zijn deelnemer grijnsde.

Voor alle duidelijkheid: de AI ‘voelt’ niet. Integendeel, het gedraagt ​​zich zoals een mens zou doen wanneer hij grinnikt bij een grappige stand-up met een oprecht ogende glimlach.

Gezichtsuitdrukkingen zijn niet de enige signalen die we opmerken wanneer we met mensen omgaan. Subtiele hoofdschudden, knikken, opgetrokken wenkbrauwen of handgebaren maken allemaal een indruk. Ongeacht de cultuur worden ‘eh’, ‘ahhs’ en ‘likes’ (of hun equivalenten) geïntegreerd in alledaagse interacties. Voorlopig is Emo als een baby die heeft leren lachen. Andere contexten begrijpt het nog niet.

“Er is nog veel meer te doen”, zei Lipson. We staan ​​nog maar aan het begin van non-verbale communicatie voor AI. Maar “als je denkt dat het interessant is om met ChatGPT aan de slag te gaan, wacht dan gewoon tot deze dingen fysiek worden en alle weddenschappen zijn uitgesloten.”

Krediet van het beeld: Yuhang Hu, Columbia Engineering via YouTube

spot_img

Laatste intelligentie

spot_img