Contributions to explainable deep learning models

Autor/a

Adhane, Gereziher ORCID

Director/a

Masip Rodó, David ORCID

Dehshibi, Mohammad Mahdi ORCID

Data de defensa

2024-07-10

Pàgines

144 p.



Departament/Institut

Universitat Oberta de Catalunya. Escola de Doctorat

Programa de doctorat

Tecnologías de la información y de redes

Resum

En este trabajo, proponemos técnicas para mejorar el rendimiento y la transparencia de las redes neuronales convolucionales (CNN). Introducimos métodos novedosos para la selección de muestras informativas (ISS), la cuantificación de la incertidumbre y la explicación visual. Los dos métodos de ISS implican el uso del aprendizaje por refuerzo para filtrar muestras que podrían provocar un sobreajuste y un sesgo, y el empleo de una simulación de Monte Carlo para estimar la incertidumbre del modelo durante el entrenamiento y la inferencia. Además, presentamos dos técnicas de explicabilidad visual: ADVISE, que genera explicaciones visuales detalladas y cuantifica la relevancia de las unidades del mapa de características, y UniCAM, que explica la naturaleza opaca de la destilación del conocimiento. Estos métodos tienen como objetivo mejorar la precisión, solidez, equidad y explicabilidad del modelo, contribuyendo tanto a la investigación académica como a la transparencia de las CNN en aplicaciones de visión por computadora.


In this work, we propose techniques to enhance the performance and transparency of convolutional neural networks (CNNs). We introduce novel methods for informative sample selection (ISS), uncertainty quantification, and visual explanation. The two ISS methods involve using reinforcement learning to filter out samples that could lead to overfitting and bias, and employing Monte Carlo dropout to estimate model uncertainty during training and inference. In addition, we present two visual explainability techniques: ADVISE, which generates detailed visual explanations and quantifies the relevance of feature map units, and UniCAM, which explains the opaque nature of knowledge distillation. These methods aim to improve model accuracy, robustness, fairness, and explainability, contributing to both academic research and the transparency of CNNs in computer vision applications.


En aquest treball, proposem tècniques per millorar el rendiment i la transparència de les xarxes neuronals convolucionals (CNN). Introduïm mètodes nous per a la selecció de mostres informatives (ISS), la quantificació de la incertesa i l'explicació visual. Els dos mètodes de l'ISS impliquen l'ús de l'aprenentatge de reforç per filtrar mostres que podrien provocar un sobreajust i un biaix, i emprar una simiulació de Monte Carlo per estimar la incertesa del model durant l'entrenament i la inferència. A més, presentem dues tècniques d'explicabilitat visual: ADVISE, que genera explicacions visuals detallades i quantifica la rellevància de les unitats als mapes de característiques, i UniCAM, que explica la naturalesa opaca dels models basats en la destil·lació del coneixement. Aquests mètodes tenen com a objectiu millorar la precisió, la robustesa, l'equitat i l'explicabilitat del model, contribuint tant a la investigació acadèmica com a la transparència de les CNN en aplicacions de visió per computador.

Paraules clau

explicabilitat en la IA; explicabilidad en la IA; explainable AI; transparència; transparencia; transparency; incertesa en els models; incertidumbre en los modelos; model uncertainty; selecció de mostres; selección de muestras; sample selection; explicabilitat visual; explicabilidad visual; visual explainability

Matèries

004 - Informàtica

Àrea de coneixement

deep learning

Documents

PhD_Thesis.pdf

13.22Mb

 

Drets

L'accés als continguts d'aquesta tesi queda condicionat a l'acceptació de les condicions d'ús establertes per la següent llicència Creative Commons: http://creativecommons.org/licenses/by-nc-nd/4.0/
L'accés als continguts d'aquesta tesi queda condicionat a l'acceptació de les condicions d'ús establertes per la següent llicència Creative Commons: http://creativecommons.org/licenses/by-nc-nd/4.0/

Aquest element apareix en la col·lecció o col·leccions següent(s)