AI-Powered Radiomics for Breast Cancer Prognosis and Aggressiveness Assessment via Ultrasound Imaging
llistat de metadades
Director
García García, Miguel Angel
Puig Valls, Domènec Savi
Date of defense
2025-09-17
Pages
210 p.
Doctorate programs
"Universitat Rovira i Virgili. Programa de doctorat en Enginyeria Informàtica i Matemàtiques de la Seguretat"
Abstract
El càncer de mama continua sent una de les principals causes de mortalitat relacionada amb el càncer entre les dones a tot el món. La detecció precoç és crucial, i l'ecografia mamària (BUS) és una eina diagnòstica clau gràcies a la seva seguretat i accessibilitat. Tanmateix, la interpretació manual de les imatges BUS sovint és subjectiva i propensa a la variabilitat. Aquesta tesi proposa diversos enfocaments basats en l’aprenentatge profund per millorar la precisió, la robustesa i l’automatització de la segmentació i classificació de tumors en imatges BUS. La primera contribució és un sistema de diagnòstic assistit per ordinador (CAD) en dues etapes. Una xarxa de segmentació basada en WideResNet amb funcions de pèrdua BCE i Dice assoleix una puntuació Dice del 77,32%. Les sortides segmentades s’envien després a un classificador MobileNetv2 ajustat que distingeix entre tumors benignes i malignes amb una precisió del 86%. Per millorar la segmentació, es proposa una nova xarxa autoencoder de dues etapes amb aprenentatge sensible al cost per abordar el desequilibri de classes, aconseguint puntuacions Dice del 84,49% al conjunt UDIAT i del 78,94% al conjunt BUSI. A partir d’això, es presenta un model CoAtNet ampliat que integra blocs convolucionals i d’atenció automàtica, millorant encara més el rendiment de segmentació. La quarta contribució introdueix CoAtUNet, un model híbrid CNN-Transformer amb una estructura simètrica d’encoder-decoder, que assoleix puntuacions Dice del 79,12% (UDIAT) i 76,21% (BUSI), demostrant robustesa davant del soroll i la variabilitat en l’aparença dels tumors. Per abordar les limitacions de les imatges en escala de grisos, la cinquena contribució integra una capa de transformació pseudocolor utilitzant mapes de colors com Cividis dins d’un model CoAtNet de doble flux (DSCoAtNet), millorant significativament la segmentació amb una puntuació F1 del 80,98%. Finalment, es proposa un model de millora basat en GAN (Pix2Pix) que millora les imatges de baixa qualitat reduint el soroll (25,2%) i augmentant la claredat de la imatge (PSNR: 25,24 dB), donant suport a diagnòstics més fiables impulsats per IA. En conjunt, aquestes contribucions demostren un fort potencial clínic per a la detecció del càncer de mama assistida per intel·ligència artificial.
El cáncer de mama sigue siendo una de las principales causas de mortalidad relacionada con el cáncer en mujeres a nivel mundial. La detección temprana es crucial, y la ecografía mamaria (BUS, por sus siglas en inglés) se considera una herramienta diagnóstica clave debido a su seguridad y accesibilidad. Sin embargo, la interpretación manual de las imágenes BUS es a menudo subjetiva y propensa a la variabilidad. Esta tesis propone varios enfoques basados en aprendizaje profundo para mejorar la precisión, la robustez y la automatización de la segmentación y clasificación de tumores en imágenes BUS. La primera contribución es un sistema de diagnóstico asistido por computadora (CAD) de dos etapas. Una red de segmentación basada en WideResNet con funciones de pérdida BCE y Dice alcanza una puntuación Dice del 77.32%. Las salidas segmentadas se introducen luego en un clasificador MobileNetv2 ajustado, que distingue entre tumores benignos y malignos con una precisión del 86%. Para mejorar la segmentación, se propone una novedosa red autoencoder de dos etapas con aprendizaje sensible al costo para abordar el desequilibrio de clases, alcanzando puntuaciones Dice del 84.49% en el conjunto UDIAT y del 78.94% en BUSI. Sobre esta base, se presenta un modelo CoAtNet extendido que integra bloques de convolución y atención automática, mejorando aún más el rendimiento en segmentación. La cuarta contribución introduce CoAtUNet, un modelo híbrido CNN-Transformer con una estructura simétrica de codificador-decodificador, que logra puntuaciones Dice del 79.12% (UDIAT) y 76.21% (BUSI), demostrando robustez frente al ruido y la variabilidad en la apariencia de los tumores. Abordando las limitaciones de las imágenes en escala de grises, la quinta contribución integra una capa de transformación pseudocolor usando mapas perceptivos como Cividis en un modelo CoAtNet de doble flujo (DSCoAtNet), mejorando significativamente la segmentación con un puntaje F1 de 80.98%. Finalmente, se propone un modelo de mejora basado en GAN (Pix2Pix), que mejora imágenes de baja calidad al reducir el ruido (25.2%) y mejorar la claridad (PSNR: 25.24 dB), apoyando diagnósticos más fiables impulsados por IA. En conjunto, estas contribuciones demuestran un gran potencial clínico para la detección de cáncer de mama asistida por inteligencia artificial.
Breast cancer remains one of the leading causes of cancer-related mortality among women worldwide. Early detection is crucial, and breast ultrasound (BUS) serves as a key diagnostic tool due to its safety and accessibility. However, manual interpretation of BUS images is often subjective and prone to variability. This thesis proposes several deep learning-based approaches to enhance the accuracy, robustness, and automation of tumor segmentation and classification in BUS imaging. The first contribution is a two-stage computer-aided diagnostic (CAD) system. A segmentation network based on WideResNet with BCE and Dice loss functions achieves a Dice score of 77.32%. The segmented outputs are then fed into a fine-tuned MobileNetv2 classifier that distinguishes between benign and malignant tumors with an 86% accuracy. To improve segmentation, a novel two-stage autoencoder network is proposed with cost-sensitive learning to address class imbalance, achieving Dice scores of 84.49% on UDIAT and 78.94% on BUSI datasets. Building on this, an extended CoAtNet model integrates convolutional and self-attention blocks, further improving segmentation performance. The fourth contribution introduces CoAtUNet, a hybrid CNN-Transformer model in a symmetric encoder-decoder structure, achieving Dice scores of 79.12% (UDIAT) and 76.21% (BUSI), while demonstrating robustness against noise and variability in tumor appearance. Addressing grayscale image limitations, a fifth contribution integrates a pseudocolor transformation layer using colormaps like Cividis within a Dual-Stream CoAtNet (DSCoAtNet), significantly improving segmentation with an F1-score of 80.98%. Finally, a GAN-based enhancement model (Pix2Pix) enhances low-quality images by reducing noise (25.2%) and improving image clarity (PSNR: 25.24 dB), thus supporting more reliable AI-driven diagnostics. Collectively, these contributions demonstrate strong clinical potential for AI-assisted breast cancer detection.
Keywords
Càncer de Mama - Imatges per Ultrasò; Anàlisi d'Imatges Mèdiques; Diagnòstic Assistit per Ordinador (CAD); Cáncer de Mama - Imágenes por Ultrasonido; Análisis de Imágenes Médicas; Diagnóstico Asistido por Computadora (CAD); Breast Cancer-Ultrasound; Medical Image Analysis; Computer-Aided Diagnosis (CAD)
Subjects
004 - Computer science; 62 - Engineering
Knowledge Area
Recommended citation
Rights
ADVERTIMENT. Tots els drets reservats. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.


