- -

Reconocimiento Multimodal Automatizado de Emociones

RiuNet: Institutional repository of the Polithecnic University of Valencia

Share/Send to

Cited by

Statistics

Reconocimiento Multimodal Automatizado de Emociones

Show simple item record

Files in this item

dc.contributor.advisor Mossi García, José Manuel es_ES
dc.contributor.author Fernández Carbonell, Marcos es_ES
dc.date.accessioned 2020-10-19T15:42:52Z
dc.date.available 2020-10-19T15:42:52Z
dc.date.created 2020-09-22 es_ES
dc.date.issued 2020-10-19 es_ES
dc.identifier.uri http://hdl.handle.net/10251/152405
dc.description.abstract [ES] Ser capaz de leer e interpretar estados afectivos juega un papel importante en la sociedad. Sin embargo, esto es difícil en algunas situaciones, especialmente cuando la información se limita a señales vocales o visuales. Muchos investigadores han investigado las llamadas emociones básicas de forma supervisada. Este trabajo fin de máster contiene los resultados de un estudio multimodal supervisado y no supervisado de un número más realista de emociones. Con ese fin, las características de audio y video se extraen del conjunto de datos GEMEP empleando openSMILE y OpenFace, respectivamente. El enfoque supervisado incluye la comparación de múltiples soluciones y demuestra que las configuraciones multimodales pueden superar a las unimodales, incluso con un mayor número de estados afectivos. El enfoque no supervisado abarca un método tradicional y otro exploratorio para encontrar patrones significativos en el conjunto de datos multimodal. También se emplea un procedimiento innovador que facilita la interpretación de los resultados dados por las técnicas de agrupación sin supervisión. es_ES
dc.description.abstract [EN] Being able to read and interpret affective states plays a significant role in human society. However, this is difficult in some situations, especially when information is limited to either vocal or visual cues. Many researchers have investigated the so-called basic emotions in a supervised way. This thesis holds the results of a multimodal supervised and unsupervised study of a more realistic number of emotions. To that end, audio and video features are extracted from the GEMEP dataset employing openSMILE and OpenFace, respectively. The supervised approach includes the comparison of multiple solutions and proves that multimodal pipelines can outperform unimodal ones, even with a higher number of affective states. The unsupervised approach embraces a traditional and an exploratory method to find meaningful patterns in the multimodal dataset. It also contains an innovative procedure to better understand the output of clustering techniques. en_EN
dc.format.extent 82 es_ES
dc.language Español es_ES
dc.publisher Universitat Politècnica de València es_ES
dc.rights Reconocimiento (by) es_ES
dc.subject Multimodal es_ES
dc.subject Aprendizaje automático es_ES
dc.subject Reconocimiento de emociones es_ES
dc.subject Aprendizaje supervisado es_ES
dc.subject Aprendizaje no supervisado es_ES
dc.subject Reducción de la dimensionalidad es_ES
dc.subject Multimodality en_EN
dc.subject Machine learning en_EN
dc.subject Emotion recognition en_EN
dc.subject Unsupervised learning en_EN
dc.subject Supervised learning en_EN
dc.subject Dimensionality reduction en_EN
dc.subject.classification TEORIA DE LA SEÑAL Y COMUNICACIONES es_ES
dc.subject.other Máster Universitario en Ingeniería de Telecomunicación-Màster Universitari en Enginyeria de Telecomunicació es_ES
dc.title Reconocimiento Multimodal Automatizado de Emociones es_ES
dc.type Tesis de máster es_ES
dc.rights.accessRights Abierto es_ES
dc.contributor.affiliation Universitat Politècnica de València. Departamento de Comunicaciones - Departament de Comunicacions es_ES
dc.contributor.affiliation Universitat Politècnica de València. Escuela Técnica Superior de Ingenieros de Telecomunicación - Escola Tècnica Superior d'Enginyers de Telecomunicació es_ES
dc.description.bibliographicCitation Fernández Carbonell, M. (2020). Reconocimiento Multimodal Automatizado de Emociones. http://hdl.handle.net/10251/152405 es_ES
dc.description.accrualMethod TFGM es_ES
dc.relation.pasarela TFGM\131378 es_ES


This item appears in the following Collection(s)

Show simple item record