Logo Zephyrnet

Questo robot prevede quando sorriderai e poi sorriderà al momento giusto

Data:

I comedy club sono le mie uscite preferite del fine settimana. Raduna alcuni amici, prendi qualche drink e quando una battuta arriva a tutti noi, c'è un momento magico in cui i nostri occhi si incontrano e condividiamo un sorriso sfacciato.

Sorridere può trasformare gli estranei nei più cari amici. Sprona incontrare-carino Hollywood trama, ripara relazioni interrotte ed è inestricabilmente legato a sentimenti di gioia confusi e caldi.

Almeno per le persone. Per i robot, i loro tentativi di sorridere genuini spesso falliscono nel mistero: abbastanza vicini da assomigliare a un essere umano, ma causando un tocco di disagio. Logicamente, sai cosa stanno cercando di fare. Ma le sensazioni viscerali ti dicono che qualcosa non va.

Potrebbe essere a causa dei tempi. I robot sono addestrati a imitare l'espressione facciale di un sorriso. Ma non sanno quando accendere il sorriso. Quando gli esseri umani si connettono, sorridiamo sinceramente in tandem senza alcuna pianificazione consapevole. I robot impiegano tempo per analizzare le espressioni facciali di una persona per riprodurre un sorriso. A un essere umano, anche un millisecondo di ritardo fa rizzare i capelli sulla nuca: come in un film dell'orrore, qualcosa sembra manipolativo e sbagliato.

La settimana scorsa, un team della Columbia University ha mostrato un algoritmo che insegna ai robot a condividere un sorriso con i loro operatori umani. L'intelligenza artificiale analizza lievi cambiamenti facciali per prevedere le espressioni degli operatori circa 800 millisecondi prima che si verifichino, giusto il tempo perché il robot sorrida.

Il team ha addestrato un morbido volto umanoide robotico chiamato Emo per anticipare e abbinare le espressioni del suo compagno umano. Con una faccia in silicone colorata di blu, Emo sembra un alieno della fantascienza degli anni '60. Ma sorrideva volentieri insieme al suo partner umano sulla stessa lunghezza d’onda “emotiva”.

I robot umanoidi sono spesso goffi e artificiosi quando comunicano con gli umani, ha scritto La dottoressa Rachael Jack dell'Università di Glasgow, che non è stata coinvolta nello studio. ChatGPT e altri algoritmi linguistici di grandi dimensioni possono già far sembrare umano il discorso di un'intelligenza artificiale, ma le comunicazioni non verbali sono difficili da replicare.

Programmare abilità sociali – almeno per quanto riguarda l’espressione facciale – nei robot fisici è un primo passo per aiutare “i robot sociali a unirsi al mondo sociale umano”, ha scritto.

Sotto il cofano

Da robotaxi ai robot-server che ti portano cibo e bevande, robot autonomi stanno entrando sempre più nelle nostre vite.

A Londra, New York, Monaco e Seul, autonome robot sfreccia attraverso aeroporti caotici offrendo assistenza ai clienti: check-in, ricerca di un gate o recupero dei bagagli smarriti. A Singapore, diversi robot alti sette piedi con visione a 360 gradi vagare per un aeroporto segnalare potenziali problemi di sicurezza. Durante la pandemia, cani robot distanziamento sociale forzato.

Ma i robot possono fare di più. Per i lavori pericolosi, come la pulizia delle macerie di case o ponti distrutti, potrebbero essere pionieri negli sforzi di salvataggio e aumentare la sicurezza dei primi soccorritori. Con una popolazione globale sempre più anziana, potrebbero aiutare gli infermieri a sostenere gli anziani.

Corrente robot umanoidi sono adorabili da cartone animato. Ma l’ingrediente principale affinché i robot possano entrare nel nostro mondo è la fiducia. Mentre gli scienziati costruiscono robot con volti sempre più simili a quelli umani, vogliamo che le loro espressioni corrispondano alle nostre aspettative. Non si tratta solo di imitare un'espressione facciale. Un genuino sorriso condiviso "sì, lo so" su uno scherzo degno di nota forma un legame.

Le comunicazioni non verbali – espressioni, gesti delle mani, posture del corpo – sono strumenti che utilizziamo per esprimere noi stessi. Con ChatGPT e altro IA generativa, le macchine possono già “comunicare in video e verbalmente”, disse autore dello studio, il dottor Hod Lipson Scienze.

Ma quando si tratta del mondo reale, dove uno sguardo, un occhiolino e un sorriso possono fare la differenza, è "un canale che in questo momento manca", ha detto Lipson. “Sorridere nel momento sbagliato potrebbe ritorcersi contro. [Se anche qualche millisecondo troppo tardi], forse hai la sensazione che tu stia assecondando.

Di 'Cheese

Per portare i robot in azioni non verbali, il team si è concentrato su un aspetto: un sorriso condiviso. Studi precedenti avevano robot preprogrammati per imitare un sorriso. Ma poiché non sono spontanei, ciò provoca un leggero ma evidente ritardo e fa sembrare il sorriso finto.

"Ci sono molte cose che entrano nella comunicazione non verbale" che sono difficili da quantificare, ha detto Lipson. "Il motivo per cui dobbiamo dire 'formaggio' quando scattiamo una foto è perché sorridere a richiesta è in realtà piuttosto difficile."

Il nuovo studio si è concentrato sui tempi.

Il team ha progettato un algoritmo che anticipa il sorriso di una persona e fa sorridere in tandem un volto animatronico simile a quello umano. Chiamato Emo, il volto robotico ha 26 ingranaggi – si pensi ai muscoli artificiali – avvolti in una “pelle” elastica di silicone. Ogni ingranaggio è collegato allo “scheletro” robotico principale con magneti per muovere le sopracciglia, gli occhi, la bocca e il collo. Gli occhi di Emo sono dotati di telecamere integrate per registrare l'ambiente circostante e controllare i movimenti del bulbo oculare e il battito delle palpebre.

Di per sé, Emo può tracciare le proprie espressioni facciali. L'obiettivo del nuovo studio era quello di aiutarlo a interpretare le emozioni degli altri. Il team ha utilizzato un trucco che ogni adolescente introverso potrebbe conoscere: ha chiesto a Emo di guardarsi allo specchio per imparare a controllarne gli ingranaggi e formare un'espressione facciale perfetta, come un sorriso. Il robot ha gradualmente imparato ad abbinare le sue espressioni ai comandi motori, ad esempio “sollevare le guance”. Il team ha quindi rimosso qualsiasi programmazione che potesse potenzialmente allungare troppo il viso, ferendo la pelle di silicone del robot.

“A quanto pare...[creare] una faccia da robot in grado di sorridere è stato incredibilmente impegnativo da un punto di vista meccanico. È più difficile che creare una mano robotica", ha affermato Lipson. “Siamo molto bravi a individuare i sorrisi non autentici. Quindi siamo molto sensibili a questo.”

Per contrastare la valle misteriosa, il team ha addestrato Emo a prevedere i movimenti facciali utilizzando video di esseri umani che ridono, sono sorpresi, accigliati, piangono e fanno altre espressioni. Le emozioni sono universali: quando sorridi, gli angoli della bocca si curvano in una falce di luna. Quando piangi, le sopracciglia si corrugano insieme.

L'intelligenza artificiale ha analizzato i movimenti facciali di ogni scena fotogramma per fotogramma. Misurando le distanze tra gli occhi, la bocca e altri "punti di riferimento facciali", sono stati rilevati segni rivelatori che corrispondono a una particolare emozione: ad esempio, un movimento verso l'alto dell'angolo della bocca suggerisce un accenno di sorriso, mentre un movimento verso il basso può abbassarsi in un cipiglio.

Una volta addestrata, l’intelligenza artificiale ha impiegato meno di un secondo per riconoscere questi punti di riferimento facciali. Quando alimentava Emo, il volto del robot poteva anticipare un sorriso basato sulle interazioni umane in un secondo, in modo da sorridere con il suo partecipante.

Per essere chiari, l’intelligenza artificiale non “sente”. Piuttosto, si comporta come farebbe un essere umano quando ridacchia in modo divertente con un sorriso apparentemente genuino.

Le espressioni facciali non sono gli unici segnali che notiamo quando interagiamo con le persone. Piccoli scuotimenti della testa, cenni del capo, sopracciglia alzate o gesti delle mani lasciano tutti il ​​segno. Indipendentemente dalla cultura, “ums”, “ahhs” e “mi piace” – o i loro equivalenti – sono integrati nelle interazioni quotidiane. Per ora, Emo è come un bambino che ha imparato a sorridere. Non comprende ancora gli altri contesti.

"C'è ancora molto da fare" disse Lipson. Stiamo solo grattando la superficie delle comunicazioni non verbali per l'intelligenza artificiale. Ma "se pensi che interagire con ChatGPT sia interessante, aspetta solo che queste cose diventino fisiche e tutte le scommesse saranno annullate".

Immagine di credito: Yuhang Hu, Columbia Engineering tramite YouTube

spot_img

L'ultima intelligenza

spot_img