Mostrar el registro sencillo del ítem
dc.contributor.advisor | Ferri Ramírez, César | es_ES |
dc.contributor.advisor | Hernández Orallo, José | es_ES |
dc.contributor.author | Cheng Liu, Juan Jianxin | es_ES |
dc.date.accessioned | 2023-10-31T08:24:47Z | |
dc.date.available | 2023-10-31T08:24:47Z | |
dc.date.created | 2023-09-22 | |
dc.date.issued | 2023-10-31 | es_ES |
dc.identifier.uri | http://hdl.handle.net/10251/199031 | |
dc.description.abstract | [ES] XAI, o "Explicabilidad de la Inteligencia Artificial", es un enfoque que desea solucionar el hecho de que algunas de las decisiones tomadas por los sistemas de IA pueden resultar difíciles de entender para los seres humanos. Esto puede ser un problema en situaciones que requieren transparencia, responsabilidad o confianza en el sistema. Por lo tanto, XAI se enfoca en la creación de sistemas de IA que puedan explicar sus propias decisiones y procesos de razonamiento de una manera clara y comprensible para las personas que lo utilizan, lo que contribuye a mejorar la confianza en la tecnología de inteligencia artificial. XAI se vuelve cada vez más relevante a medida que la IA se convierte en una herramienta cada vez más utilizada, utilizándose en diversas áreas, incluyendo la salud, la justicia, el transporte y las finanzas. La transparencia y la explicabilidad de sus decisiones se vuelven cruciales para garantizar que su uso sea justo, preciso y ético, lo que conlleva a mejorar la confianza del público en su utilización, que es esencial para su aceptación y desarrollo a largo plazo. Hay que tener claro que es fundamental seleccionar ejemplos explicativos simples y claros al explicar cómo toma decisiones la inteligencia artificial. Esto ayudará al usuario a entender el proceso de toma de decisiones y determinar si es justo, preciso y ético, tal y como se ha comentado antes, y especialmente en áreas importantes como la salud, la justicia y las finanzas. Además, elegir ejemplos comprensibles aumentará la aceptación y confianza en la tecnología de IA, lo que puede fomentar su adopción a largo plazo. Por otro lado, si se utilizan ejemplos demasiado complejos o técnicos, puede resultar difícil de entender y no cumplir su propósito de hacer más transparente y comprensible la decisión tomada por el sistema de IA para los usuarios. Siendo el objetivo de este TFM realizar explicaciones de sistemas de AI basadas en ejemplos. Pero el trabajo se enfocará en trabajar mediante modelos de aprendizaje del problema de detección de objetos a partir de líneas que formen dibujos realizados por los usuarios, tratándose de una clase de algoritmos de inteligencia artificial diseñados para detectar objetos en imágenes mediante el procesamiento de trazos o bocetos simples. Estos modelos utilizan técnicas de aprendizaje para aprender patrones y características de los trazos de objetos y luego los comparan con patrones de objetos conocidos en una base de datos para determinar qué objeto se está dibujando. | es_ES |
dc.description.abstract | [EN] XAI, or 'Explainability of Artificial Intelligence', is an approach that aims to address the fact that some of the decisions made by AI systems can be difficult for humans to understand. This can be a problem in situations that require transparency, accountability or trust in the system. Therefore, XAI focuses on creating AI systems that can explain their own decisions and reasoning processes in a clear and understandable way for the people using it, which contributes to improving trust in artificial intelligence technology. XAI is becoming increasingly relevant as AI becomes a more and more widely used tool, being used in a variety of areas, including healthcare, justice, transportation and finance. The transparency and explainability of its decisions becomes crucial to ensure that its use is fair, accurate and ethical, leading to improved public confidence in its use, which is essential for its long-term acceptance and development. It should be clear that it is essential to select simple and clear explanatory examples when explaining how artificial intelligence makes decisions. This will help the user to understand the decision-making process and determine whether it is fair, accurate and ethical, as discussed above, and especially in important areas such as health, justice and finance. In addition, choosing understandable examples will increase acceptance and trust in AI technology, which may encourage its adoption in the long term. On the other hand, if overly complex or technical examples are used, it may be difficult to understand and may not fulfil its purpose of making the decision made by the AI system more transparent and understandable to users. The aim of this TFM is to make explanations of AI systems based on examples. But the work will focus on working with learning models of the problem of object detection from lines forming drawings made by users, being a class of artificial intelligence algorithms designed to detect objects in images by processing simple strokes or sketches. These models use learning techniques to learn patterns and features of object strokes and then compare them to known object patterns in a database to determine which object is being drawn. | es_ES |
dc.format.extent | 69 | es_ES |
dc.language | Español | es_ES |
dc.publisher | Universitat Politècnica de València | es_ES |
dc.rights | Reserva de todos los derechos | es_ES |
dc.subject | Modelos de aprendizaje automático | es_ES |
dc.subject | Modelos de Random Forest (RF) | es_ES |
dc.subject | Redes Neuronales Convolucionales (CNN) | es_ES |
dc.subject | Artificial Intelligence (AI) | es_ES |
dc.subject | IA explicable | es_ES |
dc.subject | Explicabilidad de la Inteligencia Artificial | es_ES |
dc.subject | Explainability of Artificial Intelligence (XAI) | es_ES |
dc.subject.classification | LENGUAJES Y SISTEMAS INFORMATICOS | es_ES |
dc.subject.other | Máster Universitario en Ingeniería y Tecnología de Sistemas Software-Màster Universitari en Enginyeria i Tecnologia de Sistemes Programari | es_ES |
dc.title | Generación de explicaciones basadas en ejemplos de modelos de predicción de objetos en garabatos | es_ES |
dc.title.alternative | Generation of explanations based on examples of object prediction models in doodles. | es_ES |
dc.title.alternative | Generació d'explicacions basades en exemples de models de predicció de objectes en gargots | es_ES |
dc.type | Tesis de máster | es_ES |
dc.rights.accessRights | Abierto | es_ES |
dc.contributor.affiliation | Universitat Politècnica de València. Departamento de Sistemas Informáticos y Computación - Departament de Sistemes Informàtics i Computació | es_ES |
dc.description.bibliographicCitation | Cheng Liu, JJ. (2023). Generación de explicaciones basadas en ejemplos de modelos de predicción de objetos en garabatos. Universitat Politècnica de València. http://hdl.handle.net/10251/199031 | es_ES |
dc.description.accrualMethod | TFGM | es_ES |
dc.relation.pasarela | TFGM\155475 | es_ES |