제퍼넷 로고

이 로봇은 당신이 언제 미소를 지을지 예측하고 신호에 맞춰 다시 웃습니다.

시간

코미디 클럽은 제가 가장 좋아하는 주말 나들이입니다. 친구들을 모으고, 술 몇 잔을 마시고, 농담이 우리 모두에게 닿을 때, 눈이 마주치고 건방진 미소를 나누는 마법 같은 순간이 있습니다.

미소는 낯선 사람을 가장 소중한 친구로 만들 수 있습니다. 박차를 가한다 귀여운 할리우드는 음모를 꾸미고, 깨진 관계를 회복하며, 모호하고 따뜻한 기쁨의 감정과 불가분의 관계가 있습니다.

적어도 사람들에게는. 로봇의 경우, 진정한 미소를 찾으려는 시도는 인간과 비슷할 정도로 가깝지만 약간의 불안감을 주는 불쾌한 계곡에 빠지는 경우가 많습니다. 논리적으로 보면 그들이 무엇을 하려는지 알 수 있습니다. 그러나 직감은 뭔가가 옳지 않다는 것을 알려줍니다.

타이밍 때문일 수도 있습니다. 로봇은 웃는 얼굴 표정을 모방하도록 훈련되었습니다. 하지만 그들은 언제 미소를 지어야 할지 모릅니다. 인간이 연결될 때, 우리는 의식적인 계획 없이 진심으로 함께 웃습니다. 로봇은 사람의 얼굴 표정을 분석하여 미소를 재현하는 데 시간이 걸립니다. 인간에게는 1000분의 1초의 지연이라도 목 뒤쪽의 털이 자라납니다. 마치 공포 영화처럼 뭔가 조작되고 잘못된 것처럼 느껴집니다.

지난 주 컬럼비아 대학교의 한 팀이 알고리즘을 선보였습니다 로봇이 인간 조작자와 미소를 나누도록 가르치는 것입니다. AI는 약간의 얼굴 변화를 분석하여 발생하기 약 800밀리초 전에 작업자의 표정을 예측합니다. 이는 로봇이 다시 웃을 수 있는 충분한 시간입니다.

팀은 Emo라는 부드러운 로봇 인간형 얼굴을 훈련시켜 인간 동반자의 표정을 예측하고 일치시킵니다. 파란색으로 착색된 실리콘 얼굴을 가진 Emo는 60년대 SF 외계인처럼 보입니다. 그러나 그것은 동일한 "감정적" 파장에서 인간 파트너와 함께 쉽게 웃었습니다.

휴머노이드 로봇은 인간과 의사소통을 할 때 투박하고 부자연스러운 경우가 많습니다. 연구에 참여하지 않은 글래스고 대학교의 Rachael Jack 박사. ChatGPT 및 기타 대규모 언어 알고리즘은 이미 AI의 음성을 사람처럼 들리게 만들 수 있지만 비언어적 의사소통은 복제하기 어렵습니다.

적어도 얼굴 표정에 대한 사회적 기술을 물리적 로봇에 프로그래밍하는 것은 "소셜 로봇이 인간의 사회적 세계에 합류"하도록 돕는 첫 번째 단계라고 그녀는 썼습니다.

후드

~ 로봇 축 음식과 음료를 가져다주는 로보서버까지, 자율 로봇 점점 우리 삶 속으로 들어오고 있습니다.

런던, 뉴욕, 뮌헨, 서울에서는 자치 로봇 체크인, 게이트 찾기, 분실된 수하물 찾기 등 고객 지원을 제공하는 혼란스러운 공항을 빠르게 통과하세요. 싱가포르에는 360도 시야를 갖춘 XNUMX피트 높이의 로봇 여러 대가 있습니다. 공항을 배회하다 잠재적인 보안 문제를 표시합니다. 대유행 기간 동안, 로봇 개 강제된 사회적 거리두기.

하지만 로봇은 더 많은 일을 할 수 있습니다. 파괴된 집이나 다리의 잔해 청소와 같은 위험한 작업의 경우 구조 활동을 선도하고 최초 대응자의 안전을 높일 수 있습니다. 점점 더 고령화되는 세계 인구로 인해 간호사가 노인을 지원하는 데 도움이 될 수 있습니다.

Current 휴머노이드 로봇 만화처럼 사랑스럽습니다. 하지만 로봇이 우리 세상에 들어오기 위한 주요 요소는 신뢰입니다. 과학자들이 점점 더 인간과 유사한 얼굴을 가진 로봇을 만들면서 우리는 그들의 표정이 우리의 기대와 일치하기를 원합니다. 단순히 표정을 흉내 내는 것이 아닙니다. 움츠러들 만한 농담에 대해 진심으로 “네, 알아요”라고 웃는 미소는 유대감을 형성합니다.

표현, 손짓, 신체 자세 등 비언어적 의사소통은 우리가 자신을 표현하는 데 사용하는 도구입니다. ChatGPT 및 기타 생성 적 AI, 기계는 이미 "영상과 구두로 의사소통"할 수 있습니다. 말했다 연구 저자인 Hod Lipson 박사는 과학.

그러나 시선, 윙크, 미소가 모든 변화를 가져올 수 있는 현실 세계에서는 "지금은 빠져 있는 채널"이라고 Lipson은 말했습니다. “잘못된 순간에 웃는 것은 역효과를 낳을 수 있습니다. [몇 밀리초라도 늦었다면] 영합하는 것처럼 느껴질 수도 있습니다.”

치즈 말

로봇이 비언어적 행동을 하도록 하기 위해 팀은 공유된 미소라는 한 가지 측면에 집중했습니다. 이전 연구에서는 미소를 모방하도록 사전 프로그래밍된 로봇이 있었습니다. 하지만 자발적이지 않기 때문에 약간이지만 눈에 띄는 지연이 발생하고 미소가 가짜처럼 보이게 됩니다.

Lipson은 "비언어적 의사소통에는 수량화하기 어려운 많은 것들이 있습니다"라고 말했습니다. "사진을 찍을 때 '치즈'라고 말해야 하는 이유는 요구에 따라 웃는 것이 실제로 꽤 어렵기 때문입니다."

새로운 연구는 타이밍에 초점을 맞췄습니다.

팀은 사람의 미소를 예측하고 인간과 유사한 애니마트로닉스 얼굴을 동시에 웃게 만드는 알고리즘을 설계했습니다. Emo라고 불리는 이 로봇 얼굴에는 신축성 있는 실리콘 "피부"로 둘러싸인 26개의 기어(인공 근육을 생각해 보세요)가 있습니다. 각 기어는 자석으로 메인 로봇 '골격'에 부착되어 눈썹, 눈, 입, 목을 움직입니다. Emo의 눈에는 주변 환경을 기록하고 안구 움직임과 깜박임 동작을 제어하는 ​​카메라가 내장되어 있습니다.

Emo는 그 자체로 자신의 표정을 추적할 수 있습니다. 새로운 연구의 목표는 다른 사람의 감정을 해석하는 데 도움을 주는 것이었습니다. 팀은 내성적인 십대라면 누구나 알 수 있는 트릭을 사용했습니다. 그들은 Emo에게 거울을 보고 기어를 제어하는 ​​방법과 미소와 같은 완벽한 표정을 짓는 방법을 배우도록 요청했습니다. 로봇은 점차적으로 "뺨을 들어 올리세요"와 같은 운동 명령에 자신의 표정을 맞추는 방법을 배웠습니다. 그런 다음 팀은 얼굴을 너무 많이 늘려 로봇의 실리콘 피부를 손상시킬 수 있는 모든 프로그래밍을 제거했습니다.

“알고 보니…미소를 지을 수 있는 로봇 얼굴을 만드는 것은 기계적인 관점에서 볼 때 엄청나게 어려운 일이었습니다. 로봇 손을 만드는 것보다 어렵습니다.”라고 Lipson은 말했습니다. “우리는 거짓된 미소를 찾아내는 데 아주 능숙합니다. 그래서 우리는 그것에 매우 민감합니다.”

불쾌한 계곡에 대응하기 위해 팀은 인간이 웃고, 놀라고, 찡그리고, 울고, 기타 표정을 짓는 영상을 사용하여 얼굴 움직임을 예측하도록 Emo를 훈련시켰습니다. 감정은 보편적입니다. 웃을 때 입가가 초승달 모양으로 말려집니다. 울 때 눈썹이 함께 찌그러집니다.

AI는 각 장면의 얼굴 움직임을 프레임별로 분석했다. 눈, 입, 기타 "얼굴 랜드마크" 사이의 거리를 측정하여 특정 감정에 해당하는 징후를 발견했습니다. 찡그린 얼굴로 내려간다.

훈련을 마친 AI는 이러한 얼굴 랜드마크를 인식하는 데 1초도 채 걸리지 않았습니다. Emo에 전원을 공급할 때 로봇 얼굴은 1초 이내에 인간 상호 작용을 기반으로 한 미소를 예상하여 참가자와 함께 웃을 수 있습니다.

분명히 말하면 AI는 "느끼지" 않습니다. 오히려, 그것은 진짜 같은 미소를 지으며 우스꽝스러운 일어서기에 낄낄 웃을 때 인간이 하듯이 행동합니다.

얼굴 표정은 우리가 사람들과 상호 작용할 때 알아차리는 유일한 단서가 아닙니다. 미묘한 머리 흔들기, 고개 끄덕임, 눈썹 치켜올리기, 손짓 등 모두 특징을 나타냅니다. 문화에 관계없이 "음", "아", "좋아요" 또는 이에 상응하는 단어가 일상적인 상호 작용에 통합됩니다. 지금 이모는 웃는 법을 배운 아기와 같습니다. 아직 다른 맥락을 이해하지 못합니다.

“갈 일이 더 많아요.” 말했다 립슨. 우리는 AI를 위한 비언어적 의사소통의 표면을 긁는 중입니다. 그러나 "ChatGPT에 참여하는 것이 흥미롭다고 생각한다면 이러한 것이 물리적으로 구현되어 모든 것이 중단될 때까지 기다리십시오."

이미지 신용 : Yuhang Hu, YouTube를 통한 Columbia Engineering

spot_img

최신 인텔리전스

spot_img