Universitat Rovira i Virgili. Departament d'Enginyeria Informàtica i Matemàtiques
Els avenços recents en IA han portat a l'adopció generalitzada de sistemes d'aprenentatge automàtic, però la seva naturalesa de "caixa negra" dificulta la comprensió dels seus processos de presa de decisions, especialment en àmbits crítics com la salut. La IA Explicable (XAI) ha sorgit com un camp de recerca per desenvolupar models d'IA més transparents i interpretables. Aquesta tesi de doctorat té com a objectiu desenvolupar mètodes efectius per explicar sistema difús de suport a la presa de decisions, centrant-se en la salut i la presa de decisions legals. La tesi proposa un mètode innovador que busca veïns en l'espai d'entrada per generar explicacions sòlides. També introdueix una tècnica basada en lògica difusa per generar explicacions detallades d'atributs difosos en sistemes d'aprenentatge automàtic. La tesi inclou un estudi comparatiu de dos mètodes d'explicació basats en regles per a l'avaluació del risc de retinopatia diabètica, proporcionant idees per millorar l'aplicació clínica del mètode. A més, es desenvolupa un enfocament innovador per extreure explicacions locals i contrafacturals utilitzant arbres de decisió difosos, adaptat a les preferències de l'usuari i posant èmfasi en la transparència i responsabilitat en els sistemes d'aprenentatge automàtic.
Los avances recientes en IA han llevado a la adopción generalizada de sistemas de aprendizaje automático, pero su naturaleza de "caja negra" dificulta la comprensión de sus procesos de toma de decisiones, especialmente en ámbitos críticos como la salud. La IA Explicable (XAI) ha surgido como un campo de investigación para desarrollar modelos de IA más transparentes e interpretables. Esta tesis de doctorado tiene como objetivo desarrollar métodos efectivos para explicar sistema difuso de apoyo a la toma de decisiones, centrándose en la salud y la toma de decisiones legales. La tesis propone un método novedoso que busca vecinos en el espacio de entrada para generar explicaciones sólidas. También introduce una técnica basada en lógica difusa para generar explicaciones detalladas de atributos difusos en sistemas de aprendizaje automático. La tesis incluye un estudio comparativo de dos métodos de explicación basados en reglas para la evaluación del riesgo de retinopatía diabética, proporcionando ideas para mejorar la aplicación clínica del método. Además, se desarrolla un enfoque novedoso para extraer explicaciones locales y contrafactuales utilizando árboles de decisión difusos, adaptado a las preferencias del usuario y enfatizando la transparencia y responsabilidad en los sistemas de aprendizaje automático.
Recent advances in AI have led to the widespread adoption of machine learning systems, but their black box nature hinders understanding of their decision-making processes, particularly in critical domains like healthcare. Explainable AI (XAI) has emerged as a research field to develop more transparent and interpretable AI models. This Ph.D. thesis aims to develop effective methods for explaining fuzzy decision support systems, focusing on healthcare. The thesis proposes a novel method that searches for neighbors in the input space to generate robust explanations. It also introduces a technique based on fuzzy logic to generate detailed explanations of fuzzy attributes in ML systems. The thesis includes a comparative study of two rule-based explanation methods for diabetic retinopathy risk assessment, providing insights for enhancing the method's clinical application. Furthermore, a novel approach for extracting local and counterfactual explanations using fuzzy decision trees is developed, tailored to the user's preferences and emphasizing transparency and accountability in machine learning systems
explicable ai; sistema difús; Explicació post-hoc; IA explicable; sistema difuso; Explicación post-hoc; Explainable AI; Fuzzy based system; Post-hoc explanation
004 - Informàtica; 62 - Enginyeria. Tecnologia
Ciències