Mostrar el registro completo del ítem
Romero Alvarado, D. (2023). Model robustness under data distribution shifts: analysing and predicting the impact of text perturbations on NLP models. Universitat Politècnica de València. http://hdl.handle.net/10251/196726
Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/10251/196726
Título: | Model robustness under data distribution shifts: analysing and predicting the impact of text perturbations on NLP models | |||
Otro titulo: |
|
|||
Autor: | Romero Alvarado, Daniel | |||
Director(es): | ||||
Entidad UPV: |
|
|||
Fecha acto/lectura: |
|
|||
Resumen: |
[ES] Los grandes modelos de lenguaje natural suelen ser entrenados con datasets pretratados y
limpiados de impurezas como faltas de ortografía, contracciones, etc. Por lo tanto, existe una
diferencia entre los datos de ...[+]
[EN] Large language models are usually trained using curated datasets, which lack impurities such
as typographic errors, contractions, etc. Therefore, there is a gap between the training data of
these models and the data ...[+]
|
|||
Palabras clave: |
|
|||
Derechos de uso: | Reserva de todos los derechos | |||
Editorial: |
|
|||
Titulación: |
|
|||
Tipo: |
|