Contributions to explainable deep learning models

dc.contributor
Universitat Oberta de Catalunya. Escola de Doctorat
dc.contributor.author
Adhane, Gereziher
dc.date.accessioned
2024-09-12T13:07:10Z
dc.date.available
2024-09-12T13:07:10Z
dc.date.issued
2024-07-10
dc.identifier.uri
http://hdl.handle.net/10803/692101
dc.description.abstract
En este trabajo, proponemos técnicas para mejorar el rendimiento y la transparencia de las redes neuronales convolucionales (CNN). Introducimos métodos novedosos para la selección de muestras informativas (ISS), la cuantificación de la incertidumbre y la explicación visual. Los dos métodos de ISS implican el uso del aprendizaje por refuerzo para filtrar muestras que podrían provocar un sobreajuste y un sesgo, y el empleo de una simulación de Monte Carlo para estimar la incertidumbre del modelo durante el entrenamiento y la inferencia. Además, presentamos dos técnicas de explicabilidad visual: ADVISE, que genera explicaciones visuales detalladas y cuantifica la relevancia de las unidades del mapa de características, y UniCAM, que explica la naturaleza opaca de la destilación del conocimiento. Estos métodos tienen como objetivo mejorar la precisión, solidez, equidad y explicabilidad del modelo, contribuyendo tanto a la investigación académica como a la transparencia de las CNN en aplicaciones de visión por computadora.
ca
dc.description.abstract
In this work, we propose techniques to enhance the performance and transparency of convolutional neural networks (CNNs). We introduce novel methods for informative sample selection (ISS), uncertainty quantification, and visual explanation. The two ISS methods involve using reinforcement learning to filter out samples that could lead to overfitting and bias, and employing Monte Carlo dropout to estimate model uncertainty during training and inference. In addition, we present two visual explainability techniques: ADVISE, which generates detailed visual explanations and quantifies the relevance of feature map units, and UniCAM, which explains the opaque nature of knowledge distillation. These methods aim to improve model accuracy, robustness, fairness, and explainability, contributing to both academic research and the transparency of CNNs in computer vision applications.
ca
dc.description.abstract
En aquest treball, proposem tècniques per millorar el rendiment i la transparència de les xarxes neuronals convolucionals (CNN). Introduïm mètodes nous per a la selecció de mostres informatives (ISS), la quantificació de la incertesa i l'explicació visual. Els dos mètodes de l'ISS impliquen l'ús de l'aprenentatge de reforç per filtrar mostres que podrien provocar un sobreajust i un biaix, i emprar una simiulació de Monte Carlo per estimar la incertesa del model durant l'entrenament i la inferència. A més, presentem dues tècniques d'explicabilitat visual: ADVISE, que genera explicacions visuals detallades i quantifica la rellevància de les unitats als mapes de característiques, i UniCAM, que explica la naturalesa opaca dels models basats en la destil·lació del coneixement. Aquests mètodes tenen com a objectiu millorar la precisió, la robustesa, l'equitat i l'explicabilitat del model, contribuint tant a la investigació acadèmica com a la transparència de les CNN en aplicacions de visió per computador.
ca
dc.format.extent
144 p.
ca
dc.language.iso
eng
ca
dc.publisher
Universitat Oberta de Catalunya
dc.rights.license
L'accés als continguts d'aquesta tesi queda condicionat a l'acceptació de les condicions d'ús establertes per la següent llicència Creative Commons: http://creativecommons.org/licenses/by-nc-nd/4.0/
ca
dc.rights.uri
http://creativecommons.org/licenses/by-nc-nd/4.0/
*
dc.source
TDX (Tesis Doctorals en Xarxa)
dc.subject
explicabilitat en la IA
ca
dc.subject
explicabilidad en la IA
ca
dc.subject
explainable AI
ca
dc.subject
transparència
ca
dc.subject
transparencia
ca
dc.subject
transparency
ca
dc.subject
incertesa en els models
ca
dc.subject
incertidumbre en los modelos
ca
dc.subject
model uncertainty
ca
dc.subject
selecció de mostres
ca
dc.subject
selección de muestras
ca
dc.subject
sample selection
ca
dc.subject
explicabilitat visual
ca
dc.subject
explicabilidad visual
ca
dc.subject
visual explainability
ca
dc.subject.other
deep learning
ca
dc.title
Contributions to explainable deep learning models
ca
dc.type
info:eu-repo/semantics/doctoralThesis
dc.type
info:eu-repo/semantics/publishedVersion
dc.subject.udc
004
ca
dc.contributor.authoremail
gadhane@uoc.edu
ca
dc.contributor.director
Masip Rodó, David
dc.contributor.director
Dehshibi, Mohammad Mahdi
dc.embargo.terms
cap
ca
dc.rights.accessLevel
info:eu-repo/semantics/openAccess
dc.description.degree
Tecnologías de la información y de redes


Documents

PhD_Thesis.pdf

13.22Mb PDF

This item appears in the following Collection(s)