- -

Autosupervisión de Alucinaciones en Grandes Modelos del Lenguaje: LLteaM

RiuNet: Repositorio Institucional de la Universidad Politécnica de Valencia

Compartir/Enviar a

Citas

Estadísticas

  • Estadisticas de Uso

Autosupervisión de Alucinaciones en Grandes Modelos del Lenguaje: LLteaM

Mostrar el registro sencillo del ítem

Ficheros en el ítem

dc.contributor.author Correa Busquets, Sofía es_ES
dc.contributor.author Maccarini Llorens, Lucas es_ES
dc.date.accessioned 2024-01-02T11:12:29Z
dc.date.available 2024-01-02T11:12:29Z
dc.date.issued 2023-12-12
dc.identifier.uri http://hdl.handle.net/10251/201319
dc.description.abstract [EN] Large language models like GPT and Claude have revolutionized the tech industry over the past year. However, as generative artificial intelligence, they are prone to hallucinations. A large language model hallucinates when it generates false or nonsensical text. As these models improve, these hallucinations become less obvious and more dangerous for users. This research explores the phenomenon in the context of automated email response for customer service. First, it proposes a taxonomy of hallucinations in large language models based on their linguistic nature, and second, a multi-agent system that allows for the self-supervision of such hallucinations. This system generates email responses but prevents their delivery if hallucinations are detected, thus reducing the risks of generative AI in productive environments. Experiments with various state-of-the-art language models reveal that the only successful model s operating costs currently exceed those viable for operational deployment. Moreover, a drastic performance drop after a recent update to GPT-3.5-turbo suggests likely shortcomings in industrial applications driven by retrieval-augmented generation. Overall, the research advocates for a Machine Linguistics to analyze the outputs of large language models, suggesting that such a collaboration between Linguistics and Artificial Intelligence could help mitigate the social risks of hallucination. es_ES
dc.description.abstract [ES] Los grandes modelos del lenguaje, como GPT y Claude, han revolucionado la industria tecnológica en el último año. Sin embargo, al ser inteligencia artificial generativa, estos son susceptibles a sufrir alucinaciones. Un gran modelo del lenguaje alucina cuando genera texto falso o falto de sentido, pero en la medida que estos modelos mejoran, estas alucinaciones se vuelven menos evidentes y más peligrosas para el usuario. La presente investigación explora el fenómeno enun caso de respuesta automática de correo electrónico en servicio al cliente. Se propone, primero, una taxonomía de alucinaciones en grandes modelos del lenguaje según su naturaleza lingüísticay,segundo, un sistema multiagente que permite la autosupervisión de las mismas. Este redacta respuestas a correos electrónicos, pero previene su entrega en caso de detectar alucinaciones, reduciendo así los riesgos de la inteligencia artificial generativa en entornos productivos. La experimentación con distintos modelos del lenguaje de vanguardia evidencia que los costos del único modelo exitoso son actualmente demasiado altos para su puesta en producción. Además, la drástica caída de rendimiento tras una actualización de versión de GPT-3.5-turbo revela probables deficiencias en aplicaciones industriales impulsadas por la generación aumentada por recuperación. En general, la investigación defiende la necesidad de una lingüística de máquinas para analizar las producciones de los grandes modelos del lenguajey que dicha colaboración entre la lingüística y lainteligencia artificial puede ayudar a mitigar los riesgos sociales de la alucinación. es_ES
dc.language Español es_ES
dc.publisher Universitat Politècnica de València es_ES
dc.relation.ispartof Journal of Computer-Assisted Linguistic Research es_ES
dc.rights Reconocimiento - No comercial - Sin obra derivada (by-nc-nd) es_ES
dc.subject Gran modelo del lenguaje es_ES
dc.subject Alucinación es_ES
dc.subject Enunciado de cadena lógica es_ES
dc.subject Autosupervisión es_ES
dc.subject Generación aumentada por recuperación es_ES
dc.subject Large language model es_ES
dc.subject Hallucination es_ES
dc.subject Chain-of-Thought prompting es_ES
dc.subject Self-supervision es_ES
dc.subject Retrieval-augmented generation es_ES
dc.title Autosupervisión de Alucinaciones en Grandes Modelos del Lenguaje: LLteaM es_ES
dc.title.alternative Self-supervision of Hallucinations in Large Language Models: LLteaM es_ES
dc.type Artículo es_ES
dc.identifier.doi 10.4995/jclr.2023.20408
dc.rights.accessRights Abierto es_ES
dc.description.bibliographicCitation Correa Busquets, S.; Maccarini Llorens, L. (2023). Autosupervisión de Alucinaciones en Grandes Modelos del Lenguaje: LLteaM. Journal of Computer-Assisted Linguistic Research. 7:60-85. https://doi.org/10.4995/jclr.2023.20408 es_ES
dc.description.accrualMethod OJS es_ES
dc.relation.publisherversion https://doi.org/10.4995/jclr.2023.20408 es_ES
dc.description.upvformatpinicio 60 es_ES
dc.description.upvformatpfin 85 es_ES
dc.type.version info:eu-repo/semantics/publishedVersion es_ES
dc.description.volume 7 es_ES
dc.identifier.eissn 2530-9455
dc.relation.pasarela OJS\20408 es_ES


Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem