%PDF-1.5
%
1 0 obj
<>
endobj
2 0 obj
<>stream
Unidades recurrentes cerradas
Traducción Automática Neuronal
Aprendizaje No Supervisado
Transformer
Neural Machine Translation
Unsupervised Learning
Long Short-Term Memory units (LSTM)
Gated Recurrent Units (GRU)
[ES] La cuestión del uso de corpus monolingües para el entrenamiento de sistemas de traducción automática no supervisados es un asunto de notable relevancia en este mundo en continua globalización en que vivimos, debido principalmente a la escasez de corpus bilingües para la gran mayoría de pares de idiomas y a las limitaciones que esto presenta para el entrenamiento de sistemas de traducción automática.
Este TFM parte de los sistemas de traducción neuronal no supervisada creados por Artetxe et al. llamados Undreamt y Monoses, y aspira a explorar el uso de diversas arquitecturas neuronales cercanas al actual estado de la cuestión en el marco de dicho sistemas.
Se utilizarán para ello diversos de los corpus monolingües provenientes de la tarea de traducción WMT 2014, midiendo la calidad de las traducciones obtenidas mediante la métrica BLEU y buscando las mejores configuraciones para diversos pares de idiomas, comparándolas tanto como con el estado de la cuestión como con las métricas reportadas por Artetxe et al.
[EN] The use of monolingual corpora for training Unsupervised Machine Translation systems is a matter of notorious relevance in this wold in continuous globalization we live in, mainly due to the scarcity of bilingual corpora for the great majority of language pairs and the serious limitation this represents for the training of Machine Translation systems.
This TFM takes as a starting point the unsupervised Neural Machine Translation systems created by Artetxe et al., named Undreamt and Monoses, and aims to explore, within the frame of said systems, the use of neural architectures that stand close to the current state of the art.
To do that the corpora used will be monolingual corpora from the WMT 2014 translation task, measuring the quality of the translations achieved using the BLEU metric and looking for the best configurations for various language pairs, comparing these both with the state of the art and with the metrics reported by Artetxe et al.
Reserva de todos los derechos
Abierto
Francisco Casacuberta Nolla
http://hdl.handle.net/10251/174572
Universitat Politècnica de València
Inglés
endstream
endobj
3 0 obj
<>
endobj
4 0 obj
<>stream
x3PHW0Pp2A c(
endstream
endobj
7 0 obj
<>
endobj
8 0 obj
<>stream
xYs8~_ې
}o٪\mz6'0+Y2?:$uw-ɲO_q/1?>\i"HC2Jye _0ӧ<8{g|]ǻZ$H32,/E"S.%Q| eLGrAq;Q/2Tlav7Vmb{Y5Mp}Z3lOW>ܲhM{fnZagH5γd
(Ǝr"iXylPMqҒwm2)1,j4ϻer~=g!8&~i++9$5v
'.5g$a|ˀswyi٦ pH>#I+^7rˤV@RP7~FBLv.3Τ S r>RaV˲8lSyUYxtKoΣ%d/Zrv)J:5L'ry߹j&P5(r_Yx[e(*KBDWAg ɼ,t5;jT[A
nUr8ÏSmz(c^`מNoU?(RU~Ulp*2CIJdtP0˝6.0CQTv!Zynp*"Ge\rPtA@2|`>[Abd,az/Mk~VE4`IL8\C;,9# Cw}Tlnyyu+a7<Z~Y*2
p_~.>.]$*qe>U"
5JeY!(0nm8>\L7ؗQ_38Q5A$P3KԃM6X9g?r
CjrXR !Xa͎ 5]>R@6O|g怚/F1 Z'|ճ$z2ŋ!gܶcW
!D-wSK,-.Q׆4%dk !TФV>xo.qI&q#af" " JcJՔ
@
9$[4kH};ު|R'5L']]ec: ,su/wyI
ϳQt*t1
Ok ۷j⇂ ~H-9ٚgv8 gv(
fҬ!Uw('l5CT,B'+`
i&Jcl\`J=,!gC#YACYC]yБCXnZEl>zgZZ#O
UB|ĐV^U(!3D
!Y6ckYӄ<K(1Gqd HCUfRcTY%E
]]bQ88|Ox`ZIX=B )l;0ٗη-UVVO#VMYmծ$bxmHCkN[iEc3^W,"ݑ>i6nzcfncE
&6K!ΐn]؏ƆO|hB*R!G 1?F4/'>mVgwP> %rIqVӄdvQM_<*Xs:\N3[:\3cq
~/[Ə/.K8x!lAG/ȌiЊ1>Ğ)BrןiS4:ޣ/Sn=naAܟ>J*
D\D%(t^t??;-
endstream
endobj
10 0 obj
<>
endobj
11 0 obj
<>stream
xuSMo0Wh&[i[2`XNV*GYW]GI6
>|2D fQT50I*X)D=>zwUP DOy%%KѺ{o@MjP̊9IB]*bq(Y$arsDT;sF-jm9dw02_ʁtgvhFs̒lM+-p|a/5Α9YE^zۊ7C0];I>SNg'AXHeAe%qOk9&$ތ͙=Wkx-@q?WG+IuѰn]_ if`O1C/hso/`իqm^K\ H
Gϸ<8m8ab/z<-2%4\z oj~i셊`>
endobj
55 0 obj
<>stream
xZrH+XL?^&);LJe@Hh!HvZBs>ν
O@1Mi;6fD iCE%_QDY:>4M@A͡&Llf"5o94_I&f߹&dj7&ɼxЗb5j|5 Ж($̄/Mn4eRi65z|/k>_'Am[CȘЃgSޅm)3@&KL$cHe걿2G5#{<$̀dAms6 H7bv' JS6bp1.8oxYK˕e
7l||?Ht [~:}̱Gu,̑4ވx"ZEv`?d`'
; y,Q&JG2~vj&F7J֤lj՞25~[ka@O:W!Nڿ.ʕPk9oAW*!k4vаJΊ{L-c?hIj>#_á-0yKQ.BY$ߖ8\.6/*urL43>s6\ƶ=ZÚ^U?2UzIJ0ړXbs .C@0:#ifzq zDHZT~_{B(u||+ېt%zxqY~*H6:6+vRn
(N
GI9JS7-:\jisQ U*+Ty",`4-wp`f*dm{C=Ӏ8$(aT[Tu=mpUBJۃ/F^'2x~>a 蘣ne8A0y)-S|o;9;")D}Llj6<^Gkc">22?a=q}^){q<ŗOfw}| MRI}|yl6