Zephyrnet-Logo

Dieser Roboter sagt voraus, wann Sie lächeln werden – und grinst dann sofort wieder

Datum:

Comedy-Clubs sind meine liebsten Wochenendausflüge. Versammeln Sie ein paar Freunde, holen Sie sich ein paar Drinks, und wenn uns allen ein Witz einfällt, gibt es einen magischen Moment, in dem sich unsere Blicke treffen und wir ein freches Grinsen teilen.

Lächeln kann Fremde zu liebsten Freunden machen. Es spornt an treffen-süß Hollywood-Intrigen reparieren zerbrochene Beziehungen und sind untrennbar mit verschwommenen, warmen Gefühlen der Freude verbunden.

Zumindest für Menschen. Bei Robotern scheitern ihre Versuche, ein echtes Lächeln zu erzielen, oft an einem unheimlichen Ende – nah genug, um einem Menschen zu ähneln, verursachen aber dennoch ein gewisses Unbehagen. Logischerweise wissen Sie, was sie zu tun versuchen. Aber das Bauchgefühl sagt einem, dass etwas nicht stimmt.

Es kann am Timing liegen. Roboter werden darauf trainiert, den Gesichtsausdruck eines Lächelns nachzuahmen. Aber sie wissen nicht, wann sie das Grinsen einschalten sollen. Wenn Menschen sich verbinden, lächeln wir wirklich gemeinsam, ohne dass es einer bewussten Planung bedarf. Roboter brauchen Zeit, um den Gesichtsausdruck einer Person zu analysieren und ein Grinsen nachzubilden. Für einen Menschen stellen sich selbst Millisekunden Verzögerung die Haare im Nacken auf – wie in einem Horrorfilm fühlt sich etwas manipulativ und falsch an.

Letzte Woche ein Team der Columbia University zeigte einen Algorithmus Dadurch lernen Roboter, mit ihren menschlichen Bedienern ein Lächeln zu teilen. Die KI analysiert leichte Gesichtsveränderungen, um den Gesichtsausdruck seiner Bediener etwa 800 Millisekunden vorherzusagen, bevor sie auftreten – gerade genug Zeit, damit der Roboter zurückgrinsen kann.

Das Team trainierte ein weiches humanoides Robotergesicht namens Emo, um die Gesichtsausdrücke seines menschlichen Begleiters zu antizipieren und anzupassen. Mit seinem blau getönten Silikongesicht sieht Emo aus wie ein Science-Fiction-Alien der 60er Jahre. Aber es grinste bereitwillig mit seinem menschlichen Partner auf der gleichen „emotionalen“ Wellenlänge.

Humanoide Roboter sind bei der Kommunikation mit Menschen oft schwerfällig und gestelzt. schrieb Dr. Rachael Jack von der University of Glasgow, die nicht an der Studie beteiligt war. ChatGPT und andere große Sprachalgorithmen können die Sprache einer KI bereits menschlich klingen lassen, aber nonverbale Kommunikation ist schwer zu reproduzieren.

Die Programmierung sozialer Fähigkeiten – zumindest für den Gesichtsausdruck – in physische Roboter sei ein erster Schritt, um „sozialen Robotern dabei zu helfen, sich der menschlichen sozialen Welt anzuschließen“, schrieb sie.

Unter der Haube

Aus Robotaxis an Robo-Server, die Ihnen Essen und Getränke bringen, autonome Roboter dringen zunehmend in unser Leben ein.

In London, New York, München und Seoul, autonom Roboter Flitzen Sie durch chaotische Flughäfen und bieten Sie Kundenunterstützung an – beim Einchecken, bei der Suche nach einem Gate oder bei der Wiederbeschaffung verlorenen Gepäcks. In Singapur mehrere sieben Fuß große Roboter mit 360-Grad-Sicht einen Flughafen durchstreifen Auf potenzielle Sicherheitsprobleme hinweisen. Während der Pandemie Roboterhunde erzwungene soziale Distanzierung.

Doch Roboter können noch mehr. Bei gefährlichen Arbeiten – etwa der Reinigung der Trümmer zerstörter Häuser oder Brücken – könnten sie bei Rettungsmaßnahmen Vorreiter sein und die Sicherheit für Ersthelfer erhöhen. Angesichts einer immer älter werdenden Weltbevölkerung könnten sie Pflegekräften dabei helfen, ältere Menschen zu unterstützen.

Strom humanoide Roboter sind cartoonhaft bezaubernd. Aber die wichtigste Voraussetzung für den Eintritt von Robotern in unsere Welt ist Vertrauen. Während Wissenschaftler Roboter mit zunehmend menschenähnlichen Gesichtern bauen, möchten wir, dass ihre Gesichtsausdrücke unseren Erwartungen entsprechen. Es geht nicht nur darum, einen Gesichtsausdruck nachzuahmen. Ein aufrichtiges gemeinsames „Ja, ich weiß“-Lächeln über einen erschreckenden Witz schafft eine Bindung.

Nonverbale Kommunikation – Mimik, Handgesten, Körperhaltung – sind Werkzeuge, mit denen wir uns ausdrücken. Mit ChatGPT und anderen generative KI, Maschinen können bereits „per Video und verbal kommunizieren“ sagte Studienautor Dr. Hod Lipson an Wissenschaft.

Aber wenn es um die reale Welt geht – wo ein Blick, ein Augenzwinkern und ein Lächeln den entscheidenden Unterschied machen können – ist das „ein Kanal, der im Moment fehlt“, sagte Lipson. „Ein Lächeln zur falschen Zeit könnte nach hinten losgehen. [Wenn auch nur ein paar Millisekunden zu spät], fühlt es sich vielleicht so an, als würde man nachgeben.“

Sag Cheese

Um Roboter zu nonverbaler Aktion zu bewegen, konzentrierte sich das Team auf einen Aspekt: ​​ein gemeinsames Lächeln. Frühere Studien haben Roboter so vorprogrammiert, dass sie ein Lächeln nachahmen. Aber weil sie nicht spontan sind, kommt es zu einer leichten, aber spürbaren Verzögerung und lässt das Grinsen falsch aussehen.

„Es gibt viele Dinge, die in die nonverbale Kommunikation einfließen“, die schwer zu quantifizieren sind, sagte Lipson. „Der Grund, warum wir beim Fotografieren ‚Käse‘ sagen müssen, liegt darin, dass es uns eigentlich ziemlich schwerfällt, auf Verlangen zu lächeln.“

Die neue Studie konzentrierte sich auf das Timing.

Das Team entwickelte einen Algorithmus, der das Lächeln einer Person vorhersieht und gleichzeitig ein menschenähnliches animatronisches Gesicht zum Grinsen bringt. Das Robotergesicht mit dem Namen Emo verfügt über 26 Gänge – man denke an künstliche Muskeln –, die von einer dehnbaren Silikonhaut umhüllt sind. Jedes Zahnrad ist mit Magneten am Haupt-Roboter-„Skelett“ befestigt, um Augenbrauen, Augen, Mund und Hals zu bewegen. Emos Augen verfügen über eingebaute Kameras, um seine Umgebung aufzuzeichnen und seine Augapfelbewegungen und Blinzelbewegungen zu steuern.

Emo selbst kann seine eigenen Gesichtsausdrücke verfolgen. Ziel der neuen Studie war es, dabei zu helfen, die Emotionen anderer zu interpretieren. Das Team nutzte einen Trick, den jeder introvertierte Teenager kennen dürfte: Sie baten Emo, in den Spiegel zu schauen, um zu lernen, wie man seine Bewegungen kontrolliert und einen perfekten Gesichtsausdruck, beispielsweise ein Lächeln, formt. Der Roboter lernte nach und nach, seine Mimik mit motorischen Befehlen in Einklang zu bringen – etwa „Hebe die Wangen hoch“. Anschließend entfernte das Team sämtliche Programmierungen, die das Gesicht möglicherweise zu sehr dehnen und die Silikonhaut des Roboters verletzen könnten.

„Es stellte sich heraus, dass die Herstellung eines Robotergesichts, das lächeln kann, aus mechanischer Sicht eine unglaubliche Herausforderung war. Es ist schwieriger, als eine Roboterhand zu bauen“, sagte Lipson. „Wir sind sehr gut darin, unechte Lächeln zu erkennen. Deshalb reagieren wir sehr sensibel darauf.“

Um dem unheimlichen Tal entgegenzuwirken, trainierte das Team Emo, Gesichtsbewegungen anhand von Videos von Menschen vorherzusagen, die lachen, überrascht, die Stirn runzeln, weinen und andere Gesichtsausdrücke machen. Emotionen sind universell: Wenn Sie lächeln, kräuseln sich Ihre Mundwinkel zu einer Mondsichel. Wenn man weint, ziehen sich die Brauen zusammen.

Die KI analysierte die Gesichtsbewegungen jeder Szene Bild für Bild. Durch die Messung der Abstände zwischen Augen, Mund und anderen „Gesichtsmerkmalen“ wurden verräterische Zeichen gefunden, die einer bestimmten Emotion entsprechen – zum Beispiel deutet eine nach oben gerichtete Bewegung des Mundwinkels auf die Andeutung eines Lächelns hin, während eine Abwärtsbewegung möglicherweise darauf hindeutet runzele die Stirn.

Nach dem Training benötigte die KI weniger als eine Sekunde, um diese Gesichtsmerkmale zu erkennen. Beim Einschalten von Emo konnte das Robotergesicht aufgrund menschlicher Interaktionen innerhalb einer Sekunde ein Lächeln vorhersehen, sodass es mit seinem Teilnehmer grinste.

Um es klar zu sagen: Die KI „fühlt“ nicht. Vielmehr verhält es sich so, wie ein Mensch es tun würde, wenn er mit einem aufrichtig wirkenden Lächeln zu einem lustigen Stand-up-Gespräch kichert.

Der Gesichtsausdruck ist nicht der einzige Hinweis, den wir im Umgang mit Menschen wahrnehmen. Dezentes Kopfschütteln, Nicken, hochgezogene Augenbrauen oder Handgesten hinterlassen Spuren. Unabhängig von der Kultur sind „Ähm“, „Ahh“ und „Gefällt mir“ – oder deren Äquivalente – in alltägliche Interaktionen integriert. Im Moment ist Emo wie ein Baby, das gelernt hat zu lächeln. Andere Zusammenhänge versteht es noch nicht.

„Es gibt noch viel zu tun“ sagte Lipson. Wir kratzen gerade erst an der Oberfläche der nonverbalen Kommunikation für KI. Aber „wenn Sie denken, dass es interessant ist, sich mit ChatGPT zu beschäftigen, warten Sie einfach, bis diese Dinge physisch werden und alle Wetten ungültig sind.“

Bild-Kredit: Yuhang Hu, Columbia Engineering über YouTube

spot_img

Neueste Intelligenz

spot_img