- -

Análisis de sesgos en modelos de IA generativa. Caso de uso Inditex

RiuNet: Repositorio Institucional de la Universidad Politécnica de Valencia

Compartir/Enviar a

Citas

Estadísticas

  • Estadisticas de Uso

Análisis de sesgos en modelos de IA generativa. Caso de uso Inditex

Mostrar el registro sencillo del ítem

Ficheros en el ítem

dc.contributor.advisor Ferri Ramírez, César es_ES
dc.contributor.advisor Rios Pena, Laura es_ES
dc.contributor.author Rodrigo Ibáñez, Andrea es_ES
dc.date.accessioned 2024-10-14T07:58:28Z
dc.date.available 2024-10-14T07:58:28Z
dc.date.created 2024-09-20
dc.date.issued 2024-10-14 es_ES
dc.identifier.uri http://hdl.handle.net/10251/210019
dc.description.abstract [ES] En el mundo actual, los modelos de inteligencia artificial, como el famoso ChatGPT, se han convertido en instrumentos de uso diario para todos. Están al alcance de la mano de cualquiera, pero también suponen una útil herramienta para desarrolladores y empresas. Aun así, pese a su indudable utilidad, se debe tener cuidado con su uso, pues no siempre los resultados se adecúan a la realidad. Así como en nuestra sociedad existen una gran cantidad de prejuicios, como son de género, raza, sexualidad, etc., en los datos que se utilizan para entrenar muchos de estos modelos se refleja en ocasiones esta desigualdad, pues al fin y al cabo no son más que una representación del mundo en el que vivimos. Es por eso por lo que los resultados que se generen pueden estar sesgados, dando a veces respuestas discriminativas hacia cierto sector o que no representan de manera correcta la realidad. En este trabajo se estudiarán algunos de los modelos de generación de imágenes más utilizados hoy en día, con el objetivo de realizar un análisis del nivel de sesgo que presentan y tratar de mitigar esta problemática a la hora de crear nuevo contenido. Se trabajará con casos de uso reales y se evaluará cada modelo, de manera que sirva de advertencia a la hora de su uso. es_ES
dc.description.abstract [EN] In today's world, artificial intelligence models, such as the famous ChatGPT, have become everyday tools for everyone. They are available to anyone, but they are also a useful tool for developers and companies. However, despite their undoubted usefulness, care must be taken when using them, as the results do not always match reality. Just as our society has a great deal of prejudice, such as gender, race, sexuality, etc., the data used to train many of these models sometimes reflects this inequality. After all, they are nothing more than a representation of the world we live in. That is why the results generated can be biased, sometimes giving discriminatory responses towards a certain sector or that do not correctly represent reality. This work will study some of the most used image generation models today, with the aim of analyse the level of bias they present and trying to mitigate this problem when creating new content. We will work with real use cases and evaluate each model, in order to provide a warning for its use. es_ES
dc.description.abstract [CA] Al mon actual, els models d’intel·ligència artificial, com el famós ChatGPT, s’han convertit en instruments d’ús diari per a tothom. Estan a la mà de qualsevol persona, però també suposen una útil ferramenta per a desenvolupadors i empreses. Encara i tot la seua indubtable utilitat, s’ha d’anar en compte amb el seu ús, doncs no sempre els resultats s’adeqüen a la realitat. Així com a la nostra societat existeixen una gran quantitat de prejudicis, com son de gènere, raça, sexualitat, etc., a les dades que s’utilitzen per entrenar molts d’aquests models es reflecteix en ocasions aquesta desigualtat, doncs a la cap i a la fi no son més que una representació del mon en el que vivim. Es per això que els resultats que es generen poden estar esbiaixats, donant en ocasions respostes discriminaries cap a cert sector o que no representen de manera correcta la realitat. En aquest treball s’estudiaran alguns dels models de generació d’imatges més utilitzats hui dia, amb l’objectiu de realitzar un anàlisis del nivell de biaix que presenten i tractar de mitigar aquesta problemàtica a l’hora de crear nou contingut. Es treballarà amb casos d’ús reals i s’avaluarà cada model, de manera que servisca d’advertència a l'hora del seu ús. es_ES
dc.format.extent 66 es_ES
dc.language Español es_ES
dc.publisher Universitat Politècnica de València es_ES
dc.rights Reserva de todos los derechos es_ES
dc.subject Inteligencia artificial es_ES
dc.subject Sesgos es_ES
dc.subject Discriminación es_ES
dc.subject Equidad es_ES
dc.subject IA generativa es_ES
dc.subject Generación de imágenes es_ES
dc.subject IA responsable es_ES
dc.subject Impacto social es_ES
dc.subject Artificial intelligence es_ES
dc.subject Bias es_ES
dc.subject Fairness es_ES
dc.subject Discrimination es_ES
dc.subject Generative AI es_ES
dc.subject Image generation es_ES
dc.subject Responsible AI es_ES
dc.subject Social impact es_ES
dc.subject.classification LENGUAJES Y SISTEMAS INFORMATICOS es_ES
dc.subject.other Grado en Ciencia de Datos-Grau en Ciència de Dades es_ES
dc.title Análisis de sesgos en modelos de IA generativa. Caso de uso Inditex es_ES
dc.title.alternative Bias analysis in generative AI models. Inditex use case es_ES
dc.title.alternative Anàlisi de biaixos en models de IA generativa. Cas d'ús Inditex es_ES
dc.type Proyecto/Trabajo fin de carrera/grado es_ES
dc.rights.accessRights Abierto es_ES
dc.contributor.affiliation Universitat Politècnica de València. Departamento de Sistemas Informáticos y Computación - Departament de Sistemes Informàtics i Computació es_ES
dc.contributor.affiliation Universitat Politècnica de València. Escola Tècnica Superior d'Enginyeria Informàtica es_ES
dc.description.bibliographicCitation Rodrigo Ibáñez, A. (2024). Análisis de sesgos en modelos de IA generativa. Caso de uso Inditex. Universitat Politècnica de València. http://hdl.handle.net/10251/210019 es_ES
dc.description.accrualMethod TFGM es_ES
dc.relation.pasarela TFGM\162014 es_ES


Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem