Resumen:
|
[ES] Este trabajo se enfoca en el análisis y la implementación de técnicas de explicabilidad destinadas a mejorar la comprensión de redes neuronales aplicadas a problemas que implican el procesamiento de imágenes. En primer ...[+]
[ES] Este trabajo se enfoca en el análisis y la implementación de técnicas de explicabilidad destinadas a mejorar la comprensión de redes neuronales aplicadas a problemas que implican el procesamiento de imágenes. En primer lugar, se realiza una revisión exhaustiva del estado actual de la inteligencia artificial explicativa, explorando las principales metodologías y enfoques utilizados en este campo.
Posteriormente, se procede a llevar a cabo una serie de experimentos prácticos con el propósito de profundizar en el funcionamiento interno de las redes neuronales, estudiando principalmente el comportamiento de redes neuronales convolucionales. Estos experimentos se centran en identificar cómo estas redes procesan y clasifican imágenes, destacando las características visuales que influyen significativamente en sus decisiones. Para llevar esto a cabo, se emplean diversas técnicas de explicabilidad, tales como SHAP (SHapley Additive exPlanations), que descompone el impacto de cada característica en la predicción o LIME (Local Interpretable Model-agnostic Explanations), que explica predicciones individuales mediante ajustes locales a los datos y modelos más simples, entre otras.
El análisis detallado de estas técnicas proporciona una mayor comprensión sobre el comportamiento y el razonamiento de las redes neuronales en el contexto de problemas con imágenes, tratando así de promover el desarrollo de sistemas de inteligencia artificial más transparentes, interpretables y confiables. Esto, en un futuro puede ayudar a cumplir con las regulaciones gubernamentales en cuanto a la explicabilidad de la toma de decisiones automáticas, detectar sesgos indeseados, errores sistemáticos, fallas potenciales, mejorar la equidad de estos modelos o aumentar la confianza de los usuarios en las decisiones automáticas de estos sistemas.
[-]
[EN] This work focuses on the analysis and implementation of explainability techniques aimed at improving the understanding of neural networks applied to problems involving image processing. First, a comprehensive review ...[+]
[EN] This work focuses on the analysis and implementation of explainability techniques aimed at improving the understanding of neural networks applied to problems involving image processing. First, a comprehensive review of the current state of explainable artificial intelligence is conducted, exploring the main methodologies and approaches used in this field.
Subsequently, a series of practical experiments are carried out to delve into the internal workings of neural networks, primarily studying the behavior of convolutional neural networks. These experiments focus on identifying how these networks process and classify images, highlighting the visual features that significantly influence their decisions. To accomplish this, various explainability techniques are employed, such as SHAP (SHapley Additive exPlanations), which decomposes the impact of each feature on the prediction, or LIME (Local Interpretable Model-agnostic Explanations), which explains individual predictions by making local adjustments to the data and simpler models, among others.
The detailed analysis of these techniques provides a greater understanding of the behavior and reasoning of neural networks in the context of image problems, thus aiming to promote the development of more transparent, interpretable, and reliable artificial intelligence systems. This, in the future, may help comply with government regulations regarding the explainability of automatic decision-making, detect undesired biases, systematic errors, potential failures, improve the fairness of these models, or increase users' confidence in the automatic decisions of these systems.
[-]
|