Resumen:
|
[EN] Classically, statistical machine translation relied on representations of words in a
discrete space. Words and phrases were atomically represented as indices in a
vector. In the last years, techniques for representing ...[+]
[EN] Classically, statistical machine translation relied on representations of words in a
discrete space. Words and phrases were atomically represented as indices in a
vector. In the last years, techniques for representing words and phrases in a
continuous space have arisen. In this scenario, a word is represented in the
continuous space as a real-valued, dense and low-dimensional vector. Statistical
models can profit from this richer representation, since it is able to naturally take
into account concepts such as semantic or syntactic relationships between words
and phrases. This approach is encouraging, but it also entails new challenges.
In this work, a language model which relies on continuous representations of
words is developed. Such model makes use of a bidirectional recurrent neural
network, which is able to take into account both the past and the future context
of words. Since the model is costly to train, the training dataset is reduced by
using bilingual sentence selection techniques. Two selection methods are used
and compared. The language model is then used to rerank translation
hypotheses. Results show improvements on the translation quality.
Moreover, a new approach for machine translation has been recently proposed:
The so-called neural machine translation. It consists in the sole use of a large
neural network for carrying out the translation process. In this work, such novel
model is compared to the existing phrase-based approaches of statistical
machine translation.
Finally, the neural translation models are combined with diverse machine
translation systems, in order to provide a consensus translation, which aim to
improve the translation given by each single system.
[-]
[ES] Los sistemas clásicos de traducción automática estadística están basados en
representaciones de palabras en un espacio discreto. Palabras y segmentos se
representan como índices en un vector. Durante los últimos ...[+]
[ES] Los sistemas clásicos de traducción automática estadística están basados en
representaciones de palabras en un espacio discreto. Palabras y segmentos se
representan como índices en un vector. Durante los últimos años han surgido
técnicas para realizar la representación de palabras y segmentos en un espacio
continuo. En este escenario, una palabra se representa en el espacio continuo
como un vector de valores reales, denso y de baja dimensión. Los modelos
estadísticos pueden aprovecharse de esta representación más rica, puesto que
incluye de forma natural conceptos semánticos o relaciones sintácticas entre
palabras y segmentos. Esta aproximación es prometedora, pero también conlleva
nuevos retos.
En este trabajo se desarrolla un modelo de lenguaje basado en representaciones
continuas de palabras. Dicho modelo emplea una red neuronal recurrente
bidireccional, la cual es capaz de considerar tanto el contexto pasado como el
contexto futuro de las palabras. Debido a que este modelo es costoso de
entrenar, se emplea un conjunto de entrenamiento reducido mediante técnicas
de selección de frases bilingües. Se emplean y comparan dos métodos de
selección. Una vez entrenado, el modelo se emplea para reordenar hipótesis de
traducción. Los resultados muestran mejoras en la calidad de la traducción.
Por otro lado, recientemente se propuso una nueva aproximación a la traducción
automática: la llamada traducción automática neuronal. Consiste en el uso
exclusivo de una gran red neuronal para llevar a cabo el proceso de traducción.
En este trabajo, este nuevo modelo se compara al paradigma actual de
traducción basada en segmentos.
Finalmente, los modelos de traducción neuronales son combinados con otros
sistemas de traducción automática, para ofrecer una traducción consensuada,
que busca mejorar las traducciones individuales que cada sistema ofrece
[-]
|