Mostrar el registro sencillo del ítem
dc.contributor.advisor | Casacuberta Nolla, Francisco | es_ES |
dc.contributor.author | Cuevas Muñoz, Jorge Alejandro | es_ES |
dc.date.accessioned | 2021-01-13T10:52:07Z | |
dc.date.available | 2021-01-13T10:52:07Z | |
dc.date.created | 2020-12-10 | |
dc.date.issued | 2021-01-13 | es_ES |
dc.identifier.uri | http://hdl.handle.net/10251/158894 | |
dc.description.abstract | [ES] Los traductores neuronal constituyen el estado del arte en traducción automática. Sin embargo son necesarios grandes corpus bilingües para el entrenamiento de estos traductores neuronales. Esto supone un gran problema cuando estos recursos son escasos para algún par de lenguas. Una vía para atacar este problema es la traducción multilingüe que trata de la construcción de un traductor de una lengua a varias, de varias a una o de varias a varias lenguas. En este caso si las lenguas destino, por ejemplo, son similares y una de ellas posee suficientes datos paralelos y otra no, el entrenamiento de modelos para la primera puede ayudar a conseguir modelos aceptables para la segunda. En este trabajo se pretende estudiar técnicas que permitan la construcción de estos modelos multilingües Para ello se realizará una simulación con corpus bilingües existentes. | es_ES |
dc.description.abstract | [EN] Neural translators are the state of the art in machine translation. However, large bilingual corpus are necessary for the training of these neural translators. This is a sever problem when these resources are scarce for a couple of languages. One way to afford this problem is multilingual translation, which deals with the construction of a translator from one language to several, from several to one or from several to several languages. In this case, if the target languages, for example, are similar and one of them has enough parallel data and the other does not, training models for the first can help to achieve acceptable models for the second. The goal of this work is to study techniques that allow the construction of these multilingual models. For this, a simulation will be carried out with existing bilingual corpus. | es_ES |
dc.description.abstract | [CA] Els sistemes clàssics de traducció automàtica estan basat en l’entrenament de parells de llengües bilingües. Un model és dissenyat i entrenat per a traduir d’una llengua font a una llengua destinació. En els últims anys, s’han anat desenvolupant noves aproximacions que intenten millorar la qualitat de la traducció amb l’ajuda de dues o més llengües en un mateix model. En aquest escenari una llengua és traduïda a dues o més llengües, moltes llengües poden ser traduïdes a una llengua, o moltes llengües poden ser traduïdes a moltes llengües. Aquesta aproximació és prometedora, diversos estudis han demostrat que utilitzar models multilingües millora la traducció d’una llengua, no obstant això, aquesta aproximació comporta una quantitat no menor de reptes depenent del disseny del model de traducció. En aquest treball es presenta l’entrenament de dos tipus d’aproximacions dins dels models de traducció multilingüe en NMT-keras. La traducció multilingüe amb paràmetres totalment compartits i la traducció automàtica multilingüe amb paràmetres controladament compartits. Ambdós aproximacions utilitzen xarxes neuronals sobre la clàssica arquitectura de codificador, descodificador, a més d’un model d’atenció. D’altra banda, per a aconseguir construir i entrenar un model multilingüe amb paràmetres controladament compartits en NMT-Keras, es va modificar el toolkit creant i assignant un descodificador per cada llengua objectiu. Anàlogament, amb un corpus reduït i per cada aproximació multilingüe i per cada línia base per llengua, es proven diferents configuracions de models de traducció automàtica, amb la finalitat de trobar la millor configuració, la qual serà entrenada amb la totalitat de les dades. Finalment s’exposen els resultats de cada aproximació, incloent les línies bases. Es comparen els resultats entre les aproximacions exposades i amb treballs publicats en la literatura. | es_ES |
dc.format.extent | 41 | es_ES |
dc.language | Español | es_ES |
dc.publisher | Universitat Politècnica de València | es_ES |
dc.rights | Reserva de todos los derechos | es_ES |
dc.subject | Traducción Automática | es_ES |
dc.subject | Traducción Neuronal | es_ES |
dc.subject | Lenguages con Pocos Recursos | es_ES |
dc.subject | Traducción Multilingüe | es_ES |
dc.subject | NMT-Keras | es_ES |
dc.subject | Machine Translation | es_ES |
dc.subject | Neural Machine Translation | es_ES |
dc.subject | Low-resource Languages | es_ES |
dc.subject | Multilingual Machine Translation | es_ES |
dc.subject.classification | LENGUAJES Y SISTEMAS INFORMATICOS | es_ES |
dc.subject.other | Máster Universitario en Inteligencia Artificial, Reconocimiento de Formas e Imagen Digital-Màster Universitari en Intel·Ligència Artificial: Reconeixement de Formes i Imatge Digital | es_ES |
dc.title | Traducción multilingüe neuronal | es_ES |
dc.type | Tesis de máster | es_ES |
dc.rights.accessRights | Abierto | es_ES |
dc.contributor.affiliation | Universitat Politècnica de València. Departamento de Sistemas Informáticos y Computación - Departament de Sistemes Informàtics i Computació | es_ES |
dc.description.bibliographicCitation | Cuevas Muñoz, JA. (2020). Traducción multilingüe neuronal. Universitat Politècnica de València. http://hdl.handle.net/10251/158894 | es_ES |
dc.description.accrualMethod | TFGM | es_ES |
dc.relation.pasarela | TFGM\129668 | es_ES |