Mostrar el registro sencillo del ítem
dc.contributor.advisor | López García, Aarón | es_ES |
dc.contributor.advisor | Taverner Aparicio, Joaquín José | es_ES |
dc.contributor.author | Elizo Alonso, Mar | es_ES |
dc.date.accessioned | 2024-09-09T12:29:04Z | |
dc.date.available | 2024-09-09T12:29:04Z | |
dc.date.created | 2024-07-23 | |
dc.date.issued | 2024-09-09 | es_ES |
dc.identifier.uri | http://hdl.handle.net/10251/207768 | |
dc.description.abstract | [ES] Una de las principales áreas de investigación en el ámbito de la computación afectiva es el reconocimiento de emociones. Los esfuerzos multidisciplinares se han enfocado en detectar estados de ánimo considerando diferentes modalidades de aprendizaje y diferentes fuentes de información como pueden ser la expresión facial, el tono de voz o el tipo de lenguaje empleado. No obstante, estos modelos no son capaces de identificar todas las sutilezas inherentes a la emoción humana. Por este motivo, las últimas líneas de investigación se centran en la combinación de las distintas modalidades individuales para generar un único sistema multimodal. De esta manera, el sistema final reduce las limitaciones subyacentes de cada canal sensorial. En este trabajo fin de máster se desarrolla un clasificador multimodal para el reconocimiento de emociones combinando la información obtenida a partir de las expresiones faciales, la voz y el análisis del lenguaje. Como propuesta, a partir de los modelos entrenados para cada fuente perceptiva, hemos desarrollado una estrategia multimodal basada en técnicas estadísticas de aprendizaje. La parte experimental se ha realizado considerando sujetos de estudio tanto en español como en inglés. Los resultados obtenidos nos indican que la mejor estrategia de fusión, basada en un perceptrón multicapa, mejora un 4,35% la precisión global de cada una de las modalidades. Donde además, presenta una mayor consistencia a la hora de reconocer las distintas emociones. Estos resultados suponen un paso hacia el reconocimiento de emociones mediante técnicas multimodales. | es_ES |
dc.description.abstract | [EN] One of the main areas of research in the field of affective computing is emotion recognition. Multidisciplinary efforts have focused on detecting moods by considering different learning modalities and different sources of information such as facial expression, tone of voice or the type of language used. However, these models are not able to identify all the subtleties inherent to human emotion. For this reason, the latest lines of research focus on combining the different individual modalities to generate a single multimodal system. In this way, the final system reduces the underlying limitations of each sensory channel. In this master's thesis, a multimodal classifier for emotion recognition is developed by combining information obtained from facial expressions, voice and speech analysis. As a proposal, from the trained models for each perceptual source, we have developed a multimodal strategy based on statistical learning techniques. The experimental part has been carried out considering study subjects in both Spanish and English. The results obtained indicate that the best fusion strategy, based on a multilayer perceptron, improves the overall accuracy of each of the modalities by 4.35%. It also shows greater consistency when it comes to recognising different emotions. These results represent a step towards emotion recognition using multimodal techniques. | es_ES |
dc.format.extent | 74 | es_ES |
dc.language | Español | es_ES |
dc.publisher | Universitat Politècnica de València | es_ES |
dc.rights | Reconocimiento (by) | es_ES |
dc.subject | Emociones | es_ES |
dc.subject | Multimodal | es_ES |
dc.subject | Fusión | es_ES |
dc.subject | Agreagación | es_ES |
dc.subject | Imagen | es_ES |
dc.subject | Audio | es_ES |
dc.subject | Texto | es_ES |
dc.subject | Emotions | es_ES |
dc.subject | Fusion | es_ES |
dc.subject | Aggregation | es_ES |
dc.subject | Image | es_ES |
dc.subject | Text | es_ES |
dc.subject.other | Máster Universitario en Inteligencia Artificial, Reconocimiento de Formas e Imagen Digital-Màster Universitari en Intel·ligència Artificial, Reconeixement de Formes i Imatge Digital | es_ES |
dc.title | Una aproximación holística para el reconocimiento de las emociones a través de un clasificador multimodal en español | es_ES |
dc.title.alternative | A holistic approach for emotion recognition through a Spanish multimodal classifier | es_ES |
dc.title.alternative | Una aproximació holística per al reconeixement de les emocions mitjançant un classificador multimodal en espanyol | es_ES |
dc.type | Tesis de máster | es_ES |
dc.rights.accessRights | Abierto | es_ES |
dc.contributor.affiliation | Universitat Politècnica de València. Departamento de Sistemas Informáticos y Computación - Departament de Sistemes Informàtics i Computació | es_ES |
dc.description.bibliographicCitation | Elizo Alonso, M. (2024). Una aproximación holística para el reconocimiento de las emociones a través de un clasificador multimodal en español. Universitat Politècnica de València. http://hdl.handle.net/10251/207768 | es_ES |
dc.description.accrualMethod | TFGM | es_ES |
dc.relation.pasarela | TFGM\162997 | es_ES |