Resumen:
|
[ES] El análisis de la señal de audio puede definirse como el proceso de extracción de información relevante a partir de las muestras de la señal. En la mayoría de los casos, las señales de voz y música son captadas por ...[+]
[ES] El análisis de la señal de audio puede definirse como el proceso de extracción de información relevante a partir de las muestras de la señal. En la mayoría de los casos, las señales de voz y música son captadas por equipos electrónicos para su posterior análisis, pero también son alteradas por señales externas como ecos, ruidos, etc., que dificultan su posterior análisis. En este sentido, es fundamental el desarrollo de algoritmos que preprocesen la señal para reducir al máximo las fuentes externas que la alteran. Este TFG se centra en soluciones basadas en Deep Learning (DL) para dos aplicaciones de audio: la cancelación del eco acústico en sistemas de teleconferencia y la detección de emociones en la voz de una persona. Para la cancelación del eco, se utilizarán algoritmos basados en Redes Generativas Adversariales Condicionales (Conditional Generative Adversarial Networks, cGAN), que han demostrado tener un mejor rendimiento en el campo de la mejora del habla que otros modelos de DL. En cuanto al problema de la detección de emociones, se explorarán técnicas híbridas basadas en redes neuronales convolucionales (Convolutional Neural Networks, CNN) y redes de memoria larga a corto plazo (Long Short-Term Memory , LSTM), así como nuevos modelos DL como los Transformers.
[-]
[EN] Audio signal analysis can be defined as the process of extracting relevant information from signal samples. In most cases, speech and music signals are captured by electronic equipment for further analysis, but they ...[+]
[EN] Audio signal analysis can be defined as the process of extracting relevant information from signal samples. In most cases, speech and music signals are captured by electronic equipment for further analysis, but they are also altered by external signals such as echoes, noise, etc., which hinder their further analysis. In this sense, it is essential to develop algorithms that preprocess the signal to reduce as much as possible the external sources that alter it. This TFG focuses on Deep Learning (DL) based solutions for two audio applications: acoustic echo cancellation in teleconferencing systems and emotion detection in a person's speech. For echo cancellation, algorithms based on conditional Generative Adversarial Networks (cGAN), which have been shown to perform better in the field of speech enhancement than other DL models, will be used. For the emotion detection problem, hybrid techniques based on Convolutional Neural Networks (CNN) and Long Short-Term Memory (LSTM) networks will be explored, as well as new DL models such as Transformers.
[-]
|