Resumen:
|
[ES] En el mundo actual, los modelos de inteligencia artificial, como el famoso ChatGPT, se han convertido en instrumentos de uso diario para todos. Están al alcance de la mano de cualquiera, pero también suponen una útil ...[+]
[ES] En el mundo actual, los modelos de inteligencia artificial, como el famoso ChatGPT, se han convertido en instrumentos de uso diario para todos. Están al alcance de la mano de cualquiera, pero también suponen una útil herramienta para desarrolladores y empresas. Aun así, pese a su indudable utilidad, se debe tener cuidado con su uso, pues no siempre los resultados se adecúan a la realidad. Así como en nuestra sociedad existen una gran cantidad de prejuicios, como son de género, raza, sexualidad, etc., en los datos que se utilizan para entrenar muchos de estos modelos se refleja en ocasiones esta desigualdad, pues al fin y al cabo no son más que una representación del mundo en el que vivimos. Es por eso por lo que los resultados que se generen pueden estar sesgados, dando a veces respuestas discriminativas hacia cierto sector o que no representan de manera correcta la realidad. En este trabajo se estudiarán algunos de los modelos de generación de imágenes más utilizados hoy en día, con el objetivo de realizar un análisis del nivel de sesgo que presentan y tratar de mitigar esta problemática a la hora de crear nuevo contenido. Se trabajará con casos de uso reales y se evaluará cada modelo, de manera que sirva de advertencia a la hora de su uso.
[-]
[EN] In today's world, artificial intelligence models, such as the famous ChatGPT, have become everyday tools for everyone. They are available to anyone, but they are also a useful tool for developers and companies. However, ...[+]
[EN] In today's world, artificial intelligence models, such as the famous ChatGPT, have become everyday tools for everyone. They are available to anyone, but they are also a useful tool for developers and companies. However, despite their undoubted usefulness, care must be taken when using them, as the results do not always match reality. Just as our society has a great deal of prejudice, such as gender, race, sexuality, etc., the data used to train many of these models sometimes reflects this inequality. After all, they are nothing more than a representation of the world we live in. That is why the results generated can be biased, sometimes giving discriminatory responses towards a certain sector or that do not correctly represent reality. This work will study some of the most used image generation models today, with the aim of analyse the level of bias they present and trying to mitigate this problem when creating new content. We will work with real use cases and evaluate each model, in order to provide a warning for its use.
[-]
[CA] Al mon actual, els models d’intel·ligència artificial, com el famós ChatGPT, s’han
convertit en instruments d’ús diari per a tothom. Estan a la mà de qualsevol persona,
però també suposen una útil ferramenta per a ...[+]
[CA] Al mon actual, els models d’intel·ligència artificial, com el famós ChatGPT, s’han
convertit en instruments d’ús diari per a tothom. Estan a la mà de qualsevol persona,
però també suposen una útil ferramenta per a desenvolupadors i empreses. Encara i
tot la seua indubtable utilitat, s’ha d’anar en compte amb el seu ús, doncs no sempre
els resultats s’adeqüen a la realitat. Així com a la nostra societat existeixen una gran
quantitat de prejudicis, com son de gènere, raça, sexualitat, etc., a les dades que
s’utilitzen per entrenar molts d’aquests models es reflecteix en ocasions aquesta desigualtat, doncs a la cap i a la fi no son més que una representació del mon en el que
vivim. Es per això que els resultats que es generen poden estar esbiaixats, donant en
ocasions respostes discriminaries cap a cert sector o que no representen de manera
correcta la realitat. En aquest treball s’estudiaran alguns dels models de generació
d’imatges més utilitzats hui dia, amb l’objectiu de realitzar un anàlisis del nivell de
biaix que presenten i tractar de mitigar aquesta problemàtica a l’hora de crear nou
contingut. Es treballarà amb casos d’ús reals i s’avaluarà cada model, de manera que
servisca d’advertència a l'hora del seu ús.
[-]
|