Resumen:
|
[ES] Si bien los modelos de lenguaje de gran tamaño(LLMs), como GPT-4, tienen capacidades impresionantes en generación y razonamiento, tienen limitaciones en términos de su capacidad para acceder y recuperar hechos, cifras ...[+]
[ES] Si bien los modelos de lenguaje de gran tamaño(LLMs), como GPT-4, tienen capacidades impresionantes en generación y razonamiento, tienen limitaciones en términos de su capacidad para acceder y recuperar hechos, cifras o información contextualmente relevante específicos. Una solución popular a este problema es configurar un sistema generación aumentada de recuperación(RAG): combinar el modelo de lenguaje con un proveedor de almacenamiento externo y crear un sistema de software general que pueda orquestar las interacciones entre estos componentes para crear una experiencia de chat con tus datos .
En este proyecto, se enfoca en mejorar la elaboración y gestión de historias de usuario dentro del contexto de la metodología ágil, utilizando modelos de lenguaje de gran tamaño(LLMs) y aprovechando las historias existentes del ecosistema Inditex. Específicamente, se desarrolla una herramienta avanzada destinada a asistir a los Product Owners en la definición precisa de sus historias de usuario. Esta herramienta no solo identifica duplicados, sino que también facilita la creación de nuevas historias y la generación de escenarios relevantes a partir de historias similares. Además, al estar fundamentada en LLMs, la herramienta tiene la capacidad de generar términos de búsqueda a partir de la historia de usuario proporcionada, ejecutar búsquedas para recopilar información relevante y luego integrarla en la historia resultante, optimizando significativamente la gestión de requisitos en proyectos ágiles.
[-]
[EN] While large language models(LLMs) like GPT-4 have impressive capabilities in generation and reasoning, they have limitations in terms of their ability to access and retrieve specific facts, figures, or contextually ...[+]
[EN] While large language models(LLMs) like GPT-4 have impressive capabilities in generation and reasoning, they have limitations in terms of their ability to access and retrieve specific facts, figures, or contextually relevant information. A popular solution to this problem is setting up a retrieval-augmented generation(RAG) system: combine the language model with an external storage provider, and create an overall software system that can orchestrate the interactions with and between these components in order to create a chat with your data experience.
In this project, the focus is on improving the elaboration and management of user stories within the context of agile methodology, utilizing Large Language Models (LLMs) and leveraging existing stories from the Inditex ecosystem. Specifically, an advanced tool is being developed to assist Product Owners in precisely defining their user stories. This tool not only identifies duplicates but also facilitates the creation of new stories and the generation of relevant scenarios from similar stories. Additionally, being grounded in LLMs, the tool has the capability to generate search terms from the provided user story, conduct searches to gather relevant information, and then integrate it into the resulting story, significantly optimizing requirement management in agile projects.
[-]
[CA] Encara que els models de llenguatge de gran tamany(LLMs), com GPT-4, tenen capacitats impressionants en generació i raonament, tenen limitacions en termes de la seua
capacitat per accedir i recuperar fets, xifres o ...[+]
[CA] Encara que els models de llenguatge de gran tamany(LLMs), com GPT-4, tenen capacitats impressionants en generació i raonament, tenen limitacions en termes de la seua
capacitat per accedir i recuperar fets, xifres o informació contextualment rellevant específics. Una solució popular a este problema és configurar un sistema de generació
augmentada de recuperació(RAG): combinar el model de llenguatge amb un proveïdor
d’emmagatzematge extern i crear un sistema de programari general que puga orquestrar
les interaccions entre estos components per crear una experiència de “xat amb les teues
dades”.
En aquest projecte, es centra en millorar l’elaboració i gestió d’històries d’usuari dins
del context de la metodologia àgil, utilitzant models de llenguatge de gran mida (LLMs)
i aprofitant les històries existents de l’ecosistema Inditex. Es desenvolupa específicament
una eina avançada destinada a ajudar els Product Owners en la definició precisa de les
seues històries d’usuari. Aquesta eina no sols identifica duplicats, sinó que també facilita
la creació de noves històries i la generació d’escenaris rellevants a partir d’històries similars. A més, com que està fonamentada en LLMs, l’eina té la capacitat de generar termes
de cerca a partir de la història d’usuari proporcionada, executar cerques per recopilar
informació rellevant i després integrar-la en la història resultant, optimitzant significativament la gestió de requisits en projectes àgils.
[-]
|