Resumen:
|
[ES] XAI, o "Explicabilidad de la Inteligencia Artificial", es un enfoque que desea solucionar el hecho
de que algunas de las decisiones tomadas por los sistemas de IA pueden resultar difíciles de
entender para los seres ...[+]
[ES] XAI, o "Explicabilidad de la Inteligencia Artificial", es un enfoque que desea solucionar el hecho
de que algunas de las decisiones tomadas por los sistemas de IA pueden resultar difíciles de
entender para los seres humanos. Esto puede ser un problema en situaciones que requieren
transparencia, responsabilidad o confianza en el sistema. Por lo tanto, XAI se enfoca en la
creación de sistemas de IA que puedan explicar sus propias decisiones y procesos de
razonamiento de una manera clara y comprensible para las personas que lo utilizan, lo que
contribuye a mejorar la confianza en la tecnología de inteligencia artificial.
XAI se vuelve cada vez más relevante a medida que la IA se convierte en una herramienta cada
vez más utilizada, utilizándose en diversas áreas, incluyendo la salud, la justicia, el transporte y
las finanzas. La transparencia y la explicabilidad de sus decisiones se vuelven cruciales para
garantizar que su uso sea justo, preciso y ético, lo que conlleva a mejorar la confianza del
público en su utilización, que es esencial para su aceptación y desarrollo a largo plazo.
Hay que tener claro que es fundamental seleccionar ejemplos explicativos simples y claros al
explicar cómo toma decisiones la inteligencia artificial. Esto ayudará al usuario a entender el
proceso de toma de decisiones y determinar si es justo, preciso y ético, tal y como se ha
comentado antes, y especialmente en áreas importantes como la salud, la justicia y las
finanzas. Además, elegir ejemplos comprensibles aumentará la aceptación y confianza en la
tecnología de IA, lo que puede fomentar su adopción a largo plazo. Por otro lado, si se utilizan
ejemplos demasiado complejos o técnicos, puede resultar difícil de entender y no cumplir su
propósito de hacer más transparente y comprensible la decisión tomada por el sistema de IA
para los usuarios.
Siendo el objetivo de este TFM realizar explicaciones de sistemas de AI basadas en ejemplos.
Pero el trabajo se enfocará en trabajar mediante modelos de aprendizaje del problema de
detección de objetos a partir de líneas que formen dibujos realizados por los usuarios,
tratándose de una clase de algoritmos de inteligencia artificial diseñados para detectar objetos
en imágenes mediante el procesamiento de trazos o bocetos simples.
Estos modelos utilizan técnicas de aprendizaje para aprender patrones y características de los
trazos de objetos y luego los comparan con patrones de objetos conocidos en una base de
datos para determinar qué objeto se está dibujando.
[-]
[EN] XAI, or 'Explainability of Artificial Intelligence', is an approach that aims to address the fact that some of the decisions made by AI systems can be difficult for humans to understand. This can be a problem in ...[+]
[EN] XAI, or 'Explainability of Artificial Intelligence', is an approach that aims to address the fact that some of the decisions made by AI systems can be difficult for humans to understand. This can be a problem in situations that require transparency, accountability or trust in the system. Therefore, XAI focuses on creating AI systems that can explain their own decisions and reasoning processes in a clear and understandable way for the people using it, which contributes to improving trust in artificial intelligence technology. XAI is becoming increasingly relevant as AI becomes a more and more widely used tool, being used in a variety of areas, including healthcare, justice, transportation and finance. The transparency and explainability of its decisions becomes crucial to ensure that its use is fair, accurate and ethical, leading to improved public confidence in its use, which is essential for its long-term acceptance and development. It should be clear that it is essential to select simple and clear explanatory examples when explaining how artificial intelligence makes decisions. This will help the user to understand the decision-making process and determine whether it is fair, accurate and ethical, as discussed above, and especially in important areas such as health, justice and finance. In addition, choosing understandable examples will increase acceptance and trust in AI technology, which may encourage its adoption in the long term. On the other hand, if overly complex or technical examples are used, it may be difficult to understand and may not fulfil its purpose of making the decision made by the AI system more transparent and understandable to users. The aim of this TFM is to make explanations of AI systems based on examples. But the work will focus on working with learning models of the problem of object detection from lines forming drawings made by users, being a class of artificial intelligence algorithms designed to detect objects in images by processing simple strokes or sketches. These models use learning techniques to learn patterns and features of object strokes and then compare them to known object patterns in a database to determine which object is being drawn.
[-]
|