Ricercatori UniBa hanno un creato un modello di Intelligenza Artificiale (IA) “multimodale” a supporto della diagnosi del morbo di Alzheimer che utilizza sia MRI che PET tridimensionali. Hanno scoperto che queste due modalità forniscono prospettive diverse, ma entrambe utili, rendendo il modello più efficace. I risultati sperimentali ottenuti evidenziano che il modello multimodale utilizzato non solo equipara, ma supera numerosi metodi allo stato dell’arte. Inoltre, analizzando le zone delle scansioni su cui il modello di IA si è focalizzato sono state identificate alcune aree cerebrali vitali per la
diagnosi, in linea con quanto scoperto da altri ricercatori. La ricerca si inquadra nell’ambito del progetto FAIR – Future AI Research, Spoke 6 – Symbiotic AI, parte integrante del programma PNRR, finanziato da NextGenerationEU.
Lo studio è stato pubblicato sulla rivista Scientific Reports: https://www.nature.com/articles/s41598-024-56001-9
La demenza colpisce circa 55 milioni di persone in tutto il mondo e il morbo di Alzheimer ne è il tipo predominante, rappresentando il 60-70% di tutti i casi. Nonostante la sua sconcertante prevalenza, una cura rimane elusiva. Ciò evidenzia la necessità di una diagnosi precoce, che consentirebbe l’attuazione di strategie di gestione del morbo tempestive e ottimali, apportando benefici significativi a pazienti, familiari e caregiver.
L’Intelligenza Artificiale (IA) promette di trasformare la diagnosi del morbo. Le tecniche di neuroimaging, come la risonanza magnetica (MRI) e la tomografia a emissione di positroni (PET) dell’amiloide, offrono importanti biomarcatori. Ricerche precedenti si sono concentrate su approcci unimodali, che utilizzano cioè una sola tecnica di imaging per la diagnosi. Le tecniche multimodali, invece, sono ancora poco esplorate, con pochi studi volti a massimizzare le prestazioni dei modelli di IA utilizzando una combinazione di più tipologie di imaging.
Per colmare questa lacuna, il gruppo guidato dalla Prof.ssa Giovanna Castellano ha proposto e valutato modelli di rete neurale basati su reti neurali convoluzionali (convolutional neural network – CNN) utilizzando MRI e PET sia 2D che 3D, in modalità unimodale e multimodale. Inoltre, sono state incorporate tecniche di “IA spiegabile” per migliorare la trasparenza del processo decisionale.
La ricerca
I modelli hanno come architettura di base quella delle CNN, specializzate per elaborare le caratteristiche specifiche delle scansioni in input (sia in termini di dimensioni che di specificità legate al tipo di scansione). Le CNN sono un particolare tipo di rete neurale artificiale che può imparare a riconoscere pattern e caratteristiche nelle immagini.
I risultati sono promettenti: tutti i modelli hanno raggiunto un’accuratezza nell’identificare la malattia del 70–95%, in linea con l’accuratezza raggiunta dai metodi allo stato dell’arte. In particolare, i modelli che usano scansioni 3D hanno superato le performance delle loro controparti bidimensionali. Inoltre, l’analisi ha rivelato che i modelli unimodali che elaborano MRI in 2D o 3D forniscono risultati migliori rispetto ai modelli basati sulle PET, con una differenza di accuratezza di circa 8–10%. Tra i modelli proposti, il modello multimodale che fonde le caratteristiche estratte simultaneamente da MRI 3D e PET 3D permette di raggiungere un’accuratezza del 95%. Questo risultato suggerisce che MRI e PET hanno ruoli complementari nella diagnosi del morbo, anche se la MRI è cruciale negli scenari in cui è disponibile una sola modalità.