Intelligenza Artificiale in Medicina: Il ruolo della spiegabilità
L’intelligenza artificiale (IA) sta progressivamente rivoluzionando il settore medico, offrendo strumenti potenti per la diagnosi, il trattamento e la gestione di pazienti.
Tuttavia, una domanda cruciale sorge nell’applicazione di queste tecnologie: è più importante comprendere come l’IA giunge a determinate decisioni, o basta che le sue risposte siano accurate?
Questo dilemma ha dato origine a un nuovo filone nell’ambito dell’IA, definito XAI (dall’inglese Explainable Artificial Intelligence, Intelligenza Artificiale Spiegabile), che mira a fornire giustificazioni sul motivo per cui l’IA sia giunta a una determinata conclusione.
Le applicazioni dell’intelligenza artificiale in medicina
L’intelligenza artificiale (IA) sta diventando un alleato indispensabile nella medicina moderna, migliorando notevolmente le capacità diagnostiche e terapeutiche.
Grazie alla sua capacità di analizzare vasti insiemi di dati complessi, l’IA può individuare pattern nascosti e offrire intuizioni preziose che possono sfuggire anche agli occhi umani più esperti.
Vediamo alcuni esempi rilevanti delle applicazioni dell’IA nel campo medico che dimostrano il suo potenziale trasformativo:
- Identificazione di beat aritmici in un ECG: gli algoritmi di apprendimento automatico possono analizzare elettrocardiogrammi (ECG) per identificare anomalie nei battiti cardiaci, come le aritmie. Sistemi avanzati possono rilevare queste irregolarità con una precisione spesso superiore a quella umana, consentendo diagnosi tempestive e interventi preventivi.
- Diagnosi basate su immagini: nell’ambito della radiologia, l’IA è impiegata per analizzare immagini di risonanza magnetica (MRI), tomografie computerizzate (CT) e radiografie. Algoritmi di deep learning possono individuare segni precoci di malattie, migliorando la precisione diagnostica e riducendo il carico di lavoro delle radiologie.
- Predizione di esiti clinici: l’IA può analizzare cartelle cliniche elettroniche e altri dati sanitari per prevedere esiti clinici come il rischio di complicazioni post-operatorie o l’efficacia di specifici trattamenti, permettendo un approccio più personalizzato e preventivo alla cura.
Modelli di intelligenza artificiale: le reti neurali
I modelli di intelligenza artificiale più utilizzati oggi in medicina si basano sulle reti neurali, ispirate alla struttura del cervello umano. Queste reti consistono in strati di nodi interconnessi, detti neuroni, che elaborano e trasmettono informazioni.
Le reti neurali profonde (deep neural networks), che includono molteplici strati nascosti, sono particolarmente efficaci nell’analisi di dati complessi e non strutturati come immagini mediche e segnali biologici.
Attraverso l’addestramento su vasti set di dati, queste reti possono apprendere a riconoscere pattern e anomalie, diventando strumenti potenti per la diagnosi automatica, la previsione degli esiti clinici e l’individuazione di nuove terapie.
Nonostante l’enorme potenziale delle reti neurali nel campo medico, la loro complessità intrinseca rappresenta una sfida significativa. Questi modelli di intelligenza artificiale, sebbene estremamente efficaci nell’elaborare dati complessi e nel fornire risultati accurati, operano come una sorta di “scatola nera“.
Ciò significa che, anche se possono fornire una diagnosi o una previsione molto precisa, spesso non è chiaro come siano arrivati a quella conclusione.
Questo livello di opacità può essere problematico in ambito medico, dove la comprensione del processo decisionale è fondamentale per la fiducia del personale e la sicurezza di chi è in cura.
È nata quindi una crescente esigenza di rendere le decisioni dell’IA più trasparenti e interpretabili, portando alla nascita del campo dell’Intelligenza Artificiale Spiegabile (XAI).
L’intelligenza artificiale spiegabile
L’Intelligenza Artificiale Spiegabile (XAI) rappresenta una risposta alla necessità di rendere più trasparenti e comprensibili le decisioni prese dai modelli di intelligenza artificiale, in particolare le reti neurali.
La XAI utilizza vari metodi per fornire spiegazioni chiare su come l’IA arriva a una determinata conclusione. Questo approccio consente al personale medico di comprendere meglio le raccomandazioni dell’IA, aumentando la fiducia e facilitando l’integrazione delle tecnologie AI nella pratica clinica.
Tuttavia, esiste un compromesso tra spiegabilità e accuratezza: i modelli più complessi e accurati tendono a essere meno interpretabili, mentre quelli più semplici e spiegabili potrebbero non raggiungere la stessa precisione.
Trovare un equilibrio tra accuratezza e spiegabilità è quindi essenziale per sfruttare appieno i benefici dell’IA in medicina, garantendo al contempo che le decisioni siano trasparenti e giustificabili.
Pro e Contro della Spiegabilità
Alcune persone ritengono che l’IA debba essere spiegabile perché la trasparenza è fondamentale per la fiducia e la sicurezza nel campo medico.
Ad esempio, se un modello di IA suggerisce una diagnosi di cancro basata su una radiografia, è essenziale che lə medicə comprenda quali caratteristiche dell’immagine hanno portato a questa conclusione. Questo permette di verificare l’accuratezza della diagnosi, identificare possibili errori e fornire allɜ pazienti spiegazioni chiare sulle loro condizioni e sui trattamenti suggeriti.
Inoltre, la capacità di spiegare le decisioni dell’IA è cruciale per l’aderenza a normative e standard etici che richiedono che le decisioni cliniche siano giustificabili e trasparenti.
D’altro canto, alcune persone ritengono che la priorità debba essere l’accuratezza delle decisioni dell’IA, anche se ciò comporta una minore spiegabilità.
In contesti clinici critici, come l’identificazione di aritmie in un ECG o la diagnosi precoce di malattie rare attraverso l’analisi di immagini mediche, l’obiettivo primario è ottenere risultati precisi e affidabili.
Per queste persone, un modello di IA che può diagnosticare una condizione con una precisione superiore a quella umana è estremamente prezioso, anche se il processo decisionale è opaco.
L’accuratezza elevata può tradursi in diagnosi più tempestive e trattamenti più efficaci, migliorando significativamente gli esiti per i pazienti, e può essere considerata più critica della comprensione dettagliata del funzionamento interno del modello.
Un esempio: analisi di un elettrocardiogramma con l’intelligenza artificiale
L’importanza della spiegabilità può essere spiegata con un esempio tratto da uno studio pubblicato nel 12.020 EU [1]. In questo studio, un algoritmo di intelligenza artificiale è stato utilizzato per l’analisi di segnali ECG, con l’obiettivo di rilevare l’infarto miocardico con sopraslivellamento del tratto ST.
Inizialmente, l’algoritmo si è dimostrato estremamente accurato, infondendo grande fiducia nel team che ha poi quindi provato a utilizzare un metodo di XAI per comprendere quali caratteristiche dell’ECG l’algoritmo considerava rilevanti per la diagnosi.
Sorprendentemente, si è scoperto che l’algoritmo si basava su caratteristiche del complesso QRS piuttosto che sul segmento ST, che è invece il marker clinicamente rilevante per rilevare l’infarto miocardico con sopraslivellamento del tratto ST.
Questo significa che l’algoritmo stava fornendo una diagnosi basandosi su un criterio inadatto, analizzando parti del segnale ECG che nulla hanno a che vedere con la condizione patologica che si voleva indagare.
Una spiegazione di ciò può essere dovuta al fatto che, casualmente, i dati utilizzati per l’addestramento del modello di intelligenza artificiale fossero biased. Questo significa che i dati delle persone con infarto utilizzati per l’addestramento avevano, casualmente, un complesso QRS diverso dalle tracce ECG delle persone senza infarto.
Per questo, il modello di IA ha imparato che quella tipologia di complesso QRS è sintomo di infarto. Tuttavia, ciò è scorretto e non ha alcuna base dal punto di vista medico.
Questo errore di interpretazione avrebbe potuto portare a diagnosi errate se non fosse stato per la spiegabilità fornita dal metodo utilizzato, dimostrando l’importanza della spiegabilità quando si utilizzano metodi di intelligenza artificiale.
Fonti
[1] Bodini, M., Rivolta, M. W., & Sassi, R. (2020, September). Interpretability analysis of machine learning algorithms in the detection of ST-elevation myocardial infarction. In 2020 Computing in Cardiology (pp. 1-4). IEEE.
Studente magistrale di Ingegneria Biomedica al Politecnico di Milano, scrivo principalmente articoli sulle interazioni tra il mondo dell’ingegneria e quello della medicina. Appassionato di sport, elettronica, IoT e sue applicazioni domotiche.