- -

Una aproximación holística para el reconocimiento de las emociones a través de un clasificador multimodal en español

RiuNet: Repositorio Institucional de la Universidad Politécnica de Valencia

Compartir/Enviar a

Citas

Estadísticas

  • Estadisticas de Uso

Una aproximación holística para el reconocimiento de las emociones a través de un clasificador multimodal en español

Mostrar el registro sencillo del ítem

Ficheros en el ítem

dc.contributor.advisor López García, Aarón es_ES
dc.contributor.advisor Taverner Aparicio, Joaquín José es_ES
dc.contributor.author Elizo Alonso, Mar es_ES
dc.date.accessioned 2024-09-09T12:29:04Z
dc.date.available 2024-09-09T12:29:04Z
dc.date.created 2024-07-23
dc.date.issued 2024-09-09 es_ES
dc.identifier.uri http://hdl.handle.net/10251/207768
dc.description.abstract [ES] Una de las principales áreas de investigación en el ámbito de la computación afectiva es el reconocimiento de emociones. Los esfuerzos multidisciplinares se han enfocado en detectar estados de ánimo considerando diferentes modalidades de aprendizaje y diferentes fuentes de información como pueden ser la expresión facial, el tono de voz o el tipo de lenguaje empleado. No obstante, estos modelos no son capaces de identificar todas las sutilezas inherentes a la emoción humana. Por este motivo, las últimas líneas de investigación se centran en la combinación de las distintas modalidades individuales para generar un único sistema multimodal. De esta manera, el sistema final reduce las limitaciones subyacentes de cada canal sensorial. En este trabajo fin de máster se desarrolla un clasificador multimodal para el reconocimiento de emociones combinando la información obtenida a partir de las expresiones faciales, la voz y el análisis del lenguaje. Como propuesta, a partir de los modelos entrenados para cada fuente perceptiva, hemos desarrollado una estrategia multimodal basada en técnicas estadísticas de aprendizaje. La parte experimental se ha realizado considerando sujetos de estudio tanto en español como en inglés. Los resultados obtenidos nos indican que la mejor estrategia de fusión, basada en un perceptrón multicapa, mejora un 4,35% la precisión global de cada una de las modalidades. Donde además, presenta una mayor consistencia a la hora de reconocer las distintas emociones. Estos resultados suponen un paso hacia el reconocimiento de emociones mediante técnicas multimodales. es_ES
dc.description.abstract [EN] One of the main areas of research in the field of affective computing is emotion recognition. Multidisciplinary efforts have focused on detecting moods by considering different learning modalities and different sources of information such as facial expression, tone of voice or the type of language used. However, these models are not able to identify all the subtleties inherent to human emotion. For this reason, the latest lines of research focus on combining the different individual modalities to generate a single multimodal system. In this way, the final system reduces the underlying limitations of each sensory channel. In this master's thesis, a multimodal classifier for emotion recognition is developed by combining information obtained from facial expressions, voice and speech analysis. As a proposal, from the trained models for each perceptual source, we have developed a multimodal strategy based on statistical learning techniques. The experimental part has been carried out considering study subjects in both Spanish and English. The results obtained indicate that the best fusion strategy, based on a multilayer perceptron, improves the overall accuracy of each of the modalities by 4.35%. It also shows greater consistency when it comes to recognising different emotions. These results represent a step towards emotion recognition using multimodal techniques. es_ES
dc.format.extent 74 es_ES
dc.language Español es_ES
dc.publisher Universitat Politècnica de València es_ES
dc.rights Reconocimiento (by) es_ES
dc.subject Emociones es_ES
dc.subject Multimodal es_ES
dc.subject Fusión es_ES
dc.subject Agreagación es_ES
dc.subject Imagen es_ES
dc.subject Audio es_ES
dc.subject Texto es_ES
dc.subject Emotions es_ES
dc.subject Fusion es_ES
dc.subject Aggregation es_ES
dc.subject Image es_ES
dc.subject Text es_ES
dc.subject.other Máster Universitario en Inteligencia Artificial, Reconocimiento de Formas e Imagen Digital-Màster Universitari en Intel·ligència Artificial, Reconeixement de Formes i Imatge Digital es_ES
dc.title Una aproximación holística para el reconocimiento de las emociones a través de un clasificador multimodal en español es_ES
dc.title.alternative A holistic approach for emotion recognition through a Spanish multimodal classifier es_ES
dc.title.alternative Una aproximació holística per al reconeixement de les emocions mitjançant un classificador multimodal en espanyol es_ES
dc.type Tesis de máster es_ES
dc.rights.accessRights Abierto es_ES
dc.contributor.affiliation Universitat Politècnica de València. Departamento de Sistemas Informáticos y Computación - Departament de Sistemes Informàtics i Computació es_ES
dc.description.bibliographicCitation Elizo Alonso, M. (2024). Una aproximación holística para el reconocimiento de las emociones a través de un clasificador multimodal en español. Universitat Politècnica de València. http://hdl.handle.net/10251/207768 es_ES
dc.description.accrualMethod TFGM es_ES
dc.relation.pasarela TFGM\162997 es_ES


Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem