- -

Sesgo en inteligencia artificial: descubriendo nuevos grupos protegidos

RiuNet: Repositorio Institucional de la Universidad Politécnica de Valencia

Compartir/Enviar a

Citas

Estadísticas

  • Estadisticas de Uso

Sesgo en inteligencia artificial: descubriendo nuevos grupos protegidos

Mostrar el registro sencillo del ítem

Ficheros en el ítem

dc.contributor.advisor Hernández Orallo, José es_ES
dc.contributor.advisor Contreras Ochando, Lidia es_ES
dc.contributor.author Meseguer Herrero, Sergio es_ES
dc.date.accessioned 2021-10-15T12:33:19Z
dc.date.available 2021-10-15T12:33:19Z
dc.date.created 2021-09-23
dc.date.issued 2021-10-15 es_ES
dc.identifier.uri http://hdl.handle.net/10251/174821
dc.description.abstract [ES] Actualmente, nos encontramos ante una etapa con una relevancia crucial en el ámbito de la inteligencia artificial (IA). Esta etapa está marcada por un cambio en la forma que los humanos realizan tareas, ya que cada vez más los modelos de inteligencia artificial (IA) comparten el mismo espacio de trabajo, automatizándolas. La inteligencia artificial lleva años formando parte de nuestras vidas. Su principal objetivo es la sustitución del humano, por ejemplo, los chats bots que utilizan lenguaje natural para ayudar a comprender un problema al usuario, así como también aplicada en preguntas cuyas respuestas requieren el análisis de gran cantidad de datos (predicción del tiempo, predicción de enfermedades¿). Uno de los aspectos en el que más se está avanzando es el uso de la IA en tareas de Procesamiento de Lenguaje Natural (NLP), donde se trata de imitar el lenguaje humano mejorando así las interacciones de los humanos y las máquinas ante situaciones cotidianas. Durante el avance de esta vertiente se ha observado que los modelos lingüísticos poseen sesgos a la hora de predecir, es decir, realizan predicciones más sesgadas en relación con las características de las personas, llamadas grupos protegidos, como pueden ser la raza, género o la religión. Este trabajo de fin de máster pretende aprovechar el estado del arte, estudiando varios de los modelos lingüísticos que existen y la posterior elección de la mejor opción para este caso de estudio para así poder realizar una búsqueda y su posterior discusión de la posible existencia de sesgos utilizando características de las personas. Para ello se han utilizado la herramienta de OpenAI para poder realizar una batería de pruebas que nos ayudara a cumplir con el objetivo final de este trabajo. es_ES
dc.description.abstract [EN] We are currently at a crucially important stage in the field of artificial intelligence (AI). This stage is marked by a change in the way humans perform tasks, as more and more Artificial Intelligence (AI) models share the same workspace, automating them. Artificial intelligence has been part of our lives for years. Its main objective is to replace the human, for example, chat bots that use natural language to help the user understand a problem, as well as applied to questions whose answers require the analysis of large amounts of data (weather prediction, disease prediction...). One of the aspects in which most progress is being made is the use of AI in Natural Language Processing (NLP) tasks, where the aim is to imitate human language, thus improving the interactions between humans and machines in everyday situations. During the progress of this aspect, it has been observed that linguistic models have biases when predicting, i.e., they make more biased predictions in relation to the characteristics of people, called protected groups, such as race, gender or religion. This master's thesis aims to take advantage of the state of the art, studying several of the existing linguistic models and the subsequent choice of the best option for this case study in order to perform a search and subsequent discussion of the possible existence of biases using characteristics of people. To this end, the OpenAI tool has been used to perform a battery of tests that will help us to achieve the final objective of this work. es_ES
dc.description.abstract [CA] Actualment, ens trobem davant d'una etapa amb una rellevància crucial en l'àmbit de la intel·ligència artificial (IA). Esta etapa està marcada per un canvi en la forma que els humans realitzen tasques, ja que cada vegada més els models d'intel·ligència artificial (IA) compartixen el mateix espai de treball, automatitzant-les. La intel·ligència artificial porta anys formant part de les nostres vides. El seu principal objectiu és la substitució de l'humà, per exemple, els xats bots que utilitzen llenguatge natural per a ajudar a comprendre un problema de l'usuari, així com també aplicada en preguntes les respostes del qual requerixen l'anàlisi de gran quantitat de dades (predicció del temps, predicció d'enfermetats...). Un dels aspectes en què més s'està avançant és l'ús de la IA en tasques de Processament de Llenguatge Natural (NLP), on es tracta d'imitar el llenguatge humà millorant així les interaccions dels humans i les màquines davant de situacions quotidianes. Durant l'avanç d'este vessant s'ha observat que els models lingüístics posseïxen caires a l'hora de predir, és a dir, realitzen prediccions més esbiaixades en relació amb les característiques de les persones, crides grups protegits, com poden ser la raça, gènere o la religió Aquest treball de fi de màster pretén aprofitar l'estat de l'art, estudiant diversos dels models lingüístics que existeixen i la posterior elecció de la millor opció per a aquest cas d'estudi per a així poder realitzar una cerca i la seua posterior discussió de la possible existència de biaixos utilitzant característiques de les persones. Per a això s'han utilitzat l'eina de *OpenAI per a poder realitzar una bateria de proves que ens ajudara a complir amb l'objectiu final d'aquest treball. es_ES
dc.format.extent 93 es_ES
dc.language Español es_ES
dc.publisher Universitat Politècnica de València es_ES
dc.rights Reserva de todos los derechos es_ES
dc.subject Sesgo en inteligencia artificial es_ES
dc.subject Discriminación es_ES
dc.subject Grupos protegidos es_ES
dc.subject Modelos lingüísticos es_ES
dc.subject Discrimination es_ES
dc.subject Protected groups es_ES
dc.subject Linguistic models es_ES
dc.subject.classification LENGUAJES Y SISTEMAS INFORMATICOS es_ES
dc.subject.other Máster Universitario en Ingeniería Informática-Màster Universitari en Enginyeria Informàtica es_ES
dc.title Sesgo en inteligencia artificial: descubriendo nuevos grupos protegidos es_ES
dc.type Tesis de máster es_ES
dc.rights.accessRights Cerrado es_ES
dc.contributor.affiliation Universitat Politècnica de València. Departamento de Sistemas Informáticos y Computación - Departament de Sistemes Informàtics i Computació es_ES
dc.contributor.affiliation Universitat Politècnica de València. Escola Tècnica Superior d'Enginyeria Informàtica es_ES
dc.description.bibliographicCitation Meseguer Herrero, S. (2021). Sesgo en inteligencia artificial: descubriendo nuevos grupos protegidos. Universitat Politècnica de València. http://hdl.handle.net/10251/174821 es_ES
dc.description.accrualMethod TFGM es_ES
dc.relation.pasarela TFGM\137952 es_ES


Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem