Mostrar el registro sencillo del ítem
dc.contributor.advisor | Mossi García, José Manuel | es_ES |
dc.contributor.author | Fernández Carbonell, Marcos | es_ES |
dc.date.accessioned | 2020-10-19T15:42:52Z | |
dc.date.available | 2020-10-19T15:42:52Z | |
dc.date.created | 2020-09-22 | es_ES |
dc.date.issued | 2020-10-19 | es_ES |
dc.identifier.uri | http://hdl.handle.net/10251/152405 | |
dc.description.abstract | [ES] Ser capaz de leer e interpretar estados afectivos juega un papel importante en la sociedad. Sin embargo, esto es difícil en algunas situaciones, especialmente cuando la información se limita a señales vocales o visuales. Muchos investigadores han investigado las llamadas emociones básicas de forma supervisada. Este trabajo fin de máster contiene los resultados de un estudio multimodal supervisado y no supervisado de un número más realista de emociones. Con ese fin, las características de audio y video se extraen del conjunto de datos GEMEP empleando openSMILE y OpenFace, respectivamente. El enfoque supervisado incluye la comparación de múltiples soluciones y demuestra que las configuraciones multimodales pueden superar a las unimodales, incluso con un mayor número de estados afectivos. El enfoque no supervisado abarca un método tradicional y otro exploratorio para encontrar patrones significativos en el conjunto de datos multimodal. También se emplea un procedimiento innovador que facilita la interpretación de los resultados dados por las técnicas de agrupación sin supervisión. | es_ES |
dc.description.abstract | [EN] Being able to read and interpret affective states plays a significant role in human society. However, this is difficult in some situations, especially when information is limited to either vocal or visual cues. Many researchers have investigated the so-called basic emotions in a supervised way. This thesis holds the results of a multimodal supervised and unsupervised study of a more realistic number of emotions. To that end, audio and video features are extracted from the GEMEP dataset employing openSMILE and OpenFace, respectively. The supervised approach includes the comparison of multiple solutions and proves that multimodal pipelines can outperform unimodal ones, even with a higher number of affective states. The unsupervised approach embraces a traditional and an exploratory method to find meaningful patterns in the multimodal dataset. It also contains an innovative procedure to better understand the output of clustering techniques. | en_EN |
dc.format.extent | 82 | es_ES |
dc.language | Español | es_ES |
dc.publisher | Universitat Politècnica de València | es_ES |
dc.rights | Reconocimiento (by) | es_ES |
dc.subject | Multimodal | es_ES |
dc.subject | Aprendizaje automático | es_ES |
dc.subject | Reconocimiento de emociones | es_ES |
dc.subject | Aprendizaje supervisado | es_ES |
dc.subject | Aprendizaje no supervisado | es_ES |
dc.subject | Reducción de la dimensionalidad | es_ES |
dc.subject | Multimodality | en_EN |
dc.subject | Machine learning | en_EN |
dc.subject | Emotion recognition | en_EN |
dc.subject | Unsupervised learning | en_EN |
dc.subject | Supervised learning | en_EN |
dc.subject | Dimensionality reduction | en_EN |
dc.subject.classification | TEORIA DE LA SEÑAL Y COMUNICACIONES | es_ES |
dc.subject.other | Máster Universitario en Ingeniería de Telecomunicación-Màster Universitari en Enginyeria de Telecomunicació | es_ES |
dc.title | Reconocimiento Multimodal Automatizado de Emociones | es_ES |
dc.type | Tesis de máster | es_ES |
dc.rights.accessRights | Abierto | es_ES |
dc.contributor.affiliation | Universitat Politècnica de València. Departamento de Comunicaciones - Departament de Comunicacions | es_ES |
dc.contributor.affiliation | Universitat Politècnica de València. Escuela Técnica Superior de Ingenieros de Telecomunicación - Escola Tècnica Superior d'Enginyers de Telecomunicació | es_ES |
dc.description.bibliographicCitation | Fernández Carbonell, M. (2020). Reconocimiento Multimodal Automatizado de Emociones. http://hdl.handle.net/10251/152405 | es_ES |
dc.description.accrualMethod | TFGM | es_ES |
dc.relation.pasarela | TFGM\131378 | es_ES |