Mostrar el registro sencillo del ítem
dc.contributor.advisor | Ferri Ramírez, César | es_ES |
dc.contributor.advisor | Rios Pena, Laura | es_ES |
dc.contributor.author | Rodrigo Ibáñez, Andrea | es_ES |
dc.date.accessioned | 2024-10-14T07:58:28Z | |
dc.date.available | 2024-10-14T07:58:28Z | |
dc.date.created | 2024-09-20 | |
dc.date.issued | 2024-10-14 | es_ES |
dc.identifier.uri | http://hdl.handle.net/10251/210019 | |
dc.description.abstract | [ES] En el mundo actual, los modelos de inteligencia artificial, como el famoso ChatGPT, se han convertido en instrumentos de uso diario para todos. Están al alcance de la mano de cualquiera, pero también suponen una útil herramienta para desarrolladores y empresas. Aun así, pese a su indudable utilidad, se debe tener cuidado con su uso, pues no siempre los resultados se adecúan a la realidad. Así como en nuestra sociedad existen una gran cantidad de prejuicios, como son de género, raza, sexualidad, etc., en los datos que se utilizan para entrenar muchos de estos modelos se refleja en ocasiones esta desigualdad, pues al fin y al cabo no son más que una representación del mundo en el que vivimos. Es por eso por lo que los resultados que se generen pueden estar sesgados, dando a veces respuestas discriminativas hacia cierto sector o que no representan de manera correcta la realidad. En este trabajo se estudiarán algunos de los modelos de generación de imágenes más utilizados hoy en día, con el objetivo de realizar un análisis del nivel de sesgo que presentan y tratar de mitigar esta problemática a la hora de crear nuevo contenido. Se trabajará con casos de uso reales y se evaluará cada modelo, de manera que sirva de advertencia a la hora de su uso. | es_ES |
dc.description.abstract | [EN] In today's world, artificial intelligence models, such as the famous ChatGPT, have become everyday tools for everyone. They are available to anyone, but they are also a useful tool for developers and companies. However, despite their undoubted usefulness, care must be taken when using them, as the results do not always match reality. Just as our society has a great deal of prejudice, such as gender, race, sexuality, etc., the data used to train many of these models sometimes reflects this inequality. After all, they are nothing more than a representation of the world we live in. That is why the results generated can be biased, sometimes giving discriminatory responses towards a certain sector or that do not correctly represent reality. This work will study some of the most used image generation models today, with the aim of analyse the level of bias they present and trying to mitigate this problem when creating new content. We will work with real use cases and evaluate each model, in order to provide a warning for its use. | es_ES |
dc.description.abstract | [CA] Al mon actual, els models d’intel·ligència artificial, com el famós ChatGPT, s’han convertit en instruments d’ús diari per a tothom. Estan a la mà de qualsevol persona, però també suposen una útil ferramenta per a desenvolupadors i empreses. Encara i tot la seua indubtable utilitat, s’ha d’anar en compte amb el seu ús, doncs no sempre els resultats s’adeqüen a la realitat. Així com a la nostra societat existeixen una gran quantitat de prejudicis, com son de gènere, raça, sexualitat, etc., a les dades que s’utilitzen per entrenar molts d’aquests models es reflecteix en ocasions aquesta desigualtat, doncs a la cap i a la fi no son més que una representació del mon en el que vivim. Es per això que els resultats que es generen poden estar esbiaixats, donant en ocasions respostes discriminaries cap a cert sector o que no representen de manera correcta la realitat. En aquest treball s’estudiaran alguns dels models de generació d’imatges més utilitzats hui dia, amb l’objectiu de realitzar un anàlisis del nivell de biaix que presenten i tractar de mitigar aquesta problemàtica a l’hora de crear nou contingut. Es treballarà amb casos d’ús reals i s’avaluarà cada model, de manera que servisca d’advertència a l'hora del seu ús. | es_ES |
dc.format.extent | 66 | es_ES |
dc.language | Español | es_ES |
dc.publisher | Universitat Politècnica de València | es_ES |
dc.rights | Reserva de todos los derechos | es_ES |
dc.subject | Inteligencia artificial | es_ES |
dc.subject | Sesgos | es_ES |
dc.subject | Discriminación | es_ES |
dc.subject | Equidad | es_ES |
dc.subject | IA generativa | es_ES |
dc.subject | Generación de imágenes | es_ES |
dc.subject | IA responsable | es_ES |
dc.subject | Impacto social | es_ES |
dc.subject | Artificial intelligence | es_ES |
dc.subject | Bias | es_ES |
dc.subject | Fairness | es_ES |
dc.subject | Discrimination | es_ES |
dc.subject | Generative AI | es_ES |
dc.subject | Image generation | es_ES |
dc.subject | Responsible AI | es_ES |
dc.subject | Social impact | es_ES |
dc.subject.classification | LENGUAJES Y SISTEMAS INFORMATICOS | es_ES |
dc.subject.other | Grado en Ciencia de Datos-Grau en Ciència de Dades | es_ES |
dc.title | Análisis de sesgos en modelos de IA generativa. Caso de uso Inditex | es_ES |
dc.title.alternative | Bias analysis in generative AI models. Inditex use case | es_ES |
dc.title.alternative | Anàlisi de biaixos en models de IA generativa. Cas d'ús Inditex | es_ES |
dc.type | Proyecto/Trabajo fin de carrera/grado | es_ES |
dc.rights.accessRights | Abierto | es_ES |
dc.contributor.affiliation | Universitat Politècnica de València. Departamento de Sistemas Informáticos y Computación - Departament de Sistemes Informàtics i Computació | es_ES |
dc.contributor.affiliation | Universitat Politècnica de València. Escola Tècnica Superior d'Enginyeria Informàtica | es_ES |
dc.description.bibliographicCitation | Rodrigo Ibáñez, A. (2024). Análisis de sesgos en modelos de IA generativa. Caso de uso Inditex. Universitat Politècnica de València. http://hdl.handle.net/10251/210019 | es_ES |
dc.description.accrualMethod | TFGM | es_ES |
dc.relation.pasarela | TFGM\162014 | es_ES |