- -

Generación de explicaciones basadas en ejemplos de modelos de predicción de objetos en garabatos

RiuNet: Repositorio Institucional de la Universidad Politécnica de Valencia

Compartir/Enviar a

Citas

Estadísticas

  • Estadisticas de Uso

Generación de explicaciones basadas en ejemplos de modelos de predicción de objetos en garabatos

Mostrar el registro sencillo del ítem

Ficheros en el ítem

dc.contributor.advisor Ferri Ramírez, César es_ES
dc.contributor.advisor Hernández Orallo, José es_ES
dc.contributor.author Cheng Liu, Juan Jianxin es_ES
dc.date.accessioned 2023-10-31T08:24:47Z
dc.date.available 2023-10-31T08:24:47Z
dc.date.created 2023-09-22
dc.date.issued 2023-10-31 es_ES
dc.identifier.uri http://hdl.handle.net/10251/199031
dc.description.abstract [ES] XAI, o "Explicabilidad de la Inteligencia Artificial", es un enfoque que desea solucionar el hecho de que algunas de las decisiones tomadas por los sistemas de IA pueden resultar difíciles de entender para los seres humanos. Esto puede ser un problema en situaciones que requieren transparencia, responsabilidad o confianza en el sistema. Por lo tanto, XAI se enfoca en la creación de sistemas de IA que puedan explicar sus propias decisiones y procesos de razonamiento de una manera clara y comprensible para las personas que lo utilizan, lo que contribuye a mejorar la confianza en la tecnología de inteligencia artificial. XAI se vuelve cada vez más relevante a medida que la IA se convierte en una herramienta cada vez más utilizada, utilizándose en diversas áreas, incluyendo la salud, la justicia, el transporte y las finanzas. La transparencia y la explicabilidad de sus decisiones se vuelven cruciales para garantizar que su uso sea justo, preciso y ético, lo que conlleva a mejorar la confianza del público en su utilización, que es esencial para su aceptación y desarrollo a largo plazo. Hay que tener claro que es fundamental seleccionar ejemplos explicativos simples y claros al explicar cómo toma decisiones la inteligencia artificial. Esto ayudará al usuario a entender el proceso de toma de decisiones y determinar si es justo, preciso y ético, tal y como se ha comentado antes, y especialmente en áreas importantes como la salud, la justicia y las finanzas. Además, elegir ejemplos comprensibles aumentará la aceptación y confianza en la tecnología de IA, lo que puede fomentar su adopción a largo plazo. Por otro lado, si se utilizan ejemplos demasiado complejos o técnicos, puede resultar difícil de entender y no cumplir su propósito de hacer más transparente y comprensible la decisión tomada por el sistema de IA para los usuarios. Siendo el objetivo de este TFM realizar explicaciones de sistemas de AI basadas en ejemplos. Pero el trabajo se enfocará en trabajar mediante modelos de aprendizaje del problema de detección de objetos a partir de líneas que formen dibujos realizados por los usuarios, tratándose de una clase de algoritmos de inteligencia artificial diseñados para detectar objetos en imágenes mediante el procesamiento de trazos o bocetos simples. Estos modelos utilizan técnicas de aprendizaje para aprender patrones y características de los trazos de objetos y luego los comparan con patrones de objetos conocidos en una base de datos para determinar qué objeto se está dibujando. es_ES
dc.description.abstract [EN] XAI, or 'Explainability of Artificial Intelligence', is an approach that aims to address the fact that some of the decisions made by AI systems can be difficult for humans to understand. This can be a problem in situations that require transparency, accountability or trust in the system. Therefore, XAI focuses on creating AI systems that can explain their own decisions and reasoning processes in a clear and understandable way for the people using it, which contributes to improving trust in artificial intelligence technology. XAI is becoming increasingly relevant as AI becomes a more and more widely used tool, being used in a variety of areas, including healthcare, justice, transportation and finance. The transparency and explainability of its decisions becomes crucial to ensure that its use is fair, accurate and ethical, leading to improved public confidence in its use, which is essential for its long-term acceptance and development. It should be clear that it is essential to select simple and clear explanatory examples when explaining how artificial intelligence makes decisions. This will help the user to understand the decision-making process and determine whether it is fair, accurate and ethical, as discussed above, and especially in important areas such as health, justice and finance. In addition, choosing understandable examples will increase acceptance and trust in AI technology, which may encourage its adoption in the long term. On the other hand, if overly complex or technical examples are used, it may be difficult to understand and may not fulfil its purpose of making the decision made by the AI system more transparent and understandable to users. The aim of this TFM is to make explanations of AI systems based on examples. But the work will focus on working with learning models of the problem of object detection from lines forming drawings made by users, being a class of artificial intelligence algorithms designed to detect objects in images by processing simple strokes or sketches. These models use learning techniques to learn patterns and features of object strokes and then compare them to known object patterns in a database to determine which object is being drawn. es_ES
dc.format.extent 69 es_ES
dc.language Español es_ES
dc.publisher Universitat Politècnica de València es_ES
dc.rights Reserva de todos los derechos es_ES
dc.subject Modelos de aprendizaje automático es_ES
dc.subject Modelos de Random Forest (RF) es_ES
dc.subject Redes Neuronales Convolucionales (CNN) es_ES
dc.subject Artificial Intelligence (AI) es_ES
dc.subject IA explicable es_ES
dc.subject Explicabilidad de la Inteligencia Artificial es_ES
dc.subject Explainability of Artificial Intelligence (XAI) es_ES
dc.subject.classification LENGUAJES Y SISTEMAS INFORMATICOS es_ES
dc.subject.other Máster Universitario en Ingeniería y Tecnología de Sistemas Software-Màster Universitari en Enginyeria i Tecnologia de Sistemes Programari es_ES
dc.title Generación de explicaciones basadas en ejemplos de modelos de predicción de objetos en garabatos es_ES
dc.title.alternative Generation of explanations based on examples of object prediction models in doodles. es_ES
dc.title.alternative Generació d'explicacions basades en exemples de models de predicció de objectes en gargots es_ES
dc.type Tesis de máster es_ES
dc.rights.accessRights Abierto es_ES
dc.contributor.affiliation Universitat Politècnica de València. Departamento de Sistemas Informáticos y Computación - Departament de Sistemes Informàtics i Computació es_ES
dc.description.bibliographicCitation Cheng Liu, JJ. (2023). Generación de explicaciones basadas en ejemplos de modelos de predicción de objetos en garabatos. Universitat Politècnica de València. http://hdl.handle.net/10251/199031 es_ES
dc.description.accrualMethod TFGM es_ES
dc.relation.pasarela TFGM\155475 es_ES


Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem