Zephyrnet-logo

K-EmoCon, een multimodale sensorgegevensset voor continue emotieherkenning in naturalistische gesprekken. (arXiv: 2005.04120v1 [cs.HC])

Datum:

[Ingediend op 8 mei 2020]

PDF downloaden

Abstract: Het herkennen van emoties tijdens sociale interacties heeft veel potentieel
toepassingen met de popularisering van goedkope mobiele sensoren, maar a
uitdaging blijft het gebrek aan naturalistische affectieve interactiegegevens.
De meeste bestaande emotiedatasets bieden geen ondersteuning voor het bestuderen van idiosyncratische emoties
die in het wild ontstonden toen ze werden verzameld in beperkte omgevingen.
Daarom vereist het bestuderen van emoties in de context van sociale interacties:
nieuwe dataset, en K-EmoCon is zo'n multimodale dataset met uitgebreide
annotaties van voortdurende emoties tijdens naturalistische gesprekken. De
dataset bevat multimodale metingen, inclusief audiovisuele opnames,
EEG en perifere fysiologische signalen, verkregen met kant-en-klare apparaten
uit 16 sessies van ongeveer 10 minuten durende duodebatten op een sociaal
probleem. In tegenstelling tot eerdere datasets bevat het emotie-annotaties van
alle drie de beschikbare perspectieven: zichzelf, debatpartner en externe waarnemers.
Beoordelaars annoteerden emotionele vertoningen met tussenpozen van elke vijf seconden
het bekijken van de debatbeelden, in termen van opwinding-valentie en 18 extra
categorische emoties. De resulterende K-EmoCon is de eerste publiekelijk beschikbare
emotiedataset die de multiperspectieve beoordeling van emoties mogelijk maakt
tijdens sociale interacties.

Inzendingsgeschiedenis

Van: Cheul Young Park [e-mail bekijken]
[V1]
Vr 8 mei 2020 15:51:12 UTC (5,220 KB)

Bron: http://arxiv.org/abs/2005.04120

spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?