S&V FOCUS | 2 luglio 2025

Intelligenza artificiale | Promesse e limiti nell’ambito della medicina clinica

Gli approfondimenti di Scienza & Vita | di Francesca Piergentili

L’adozione crescente dell’intelligenza artificiale e dell’apprendimento automatico nella medicina clinica ha sollevato profonde questioni etiche. I clinici prendono decisioni, in un ambito molto delicato come quello della salute, in base ad informazioni complesse. L’articolo pubblicato su Nature analizza come i modelli predittivi possano compromettere la qualità e l’affidabilità dei dati clinici a lungo termine, mettendo a rischio l’integrità scientifica e la sicurezza del paziente.

    1. L’IA in medicina: le applicazioni e i limiti riscontrati

La medicina moderna si basa sul riconoscimento di pattern: nei sintomi, nei risultati diagnostici, nella risposta ai trattamenti. Le applicazioni dell’IA sono numerose: riguardano, ad esempio, le diagnosi precoci in ambito di screening, la radiologia aumentata, lo sviluppo di nuovi farmaci.

L’apprendimento automatico supervisionato, basato sulla creazione di modelli informatici in grado di rilevare modelli apprendendo da dati etichettati, sembra essere uno strumento utile per ridurre la valutazione soggettiva, consentendo di riconoscere schemi non visibili per l’occhio umano.

L’interesse per queste tecniche è esploso: nel solo 2024, più di 26.000 articoli su PubMed menzionano IA o machine learning in ambito clinico. Si prevede che il mercato globale dell’intelligenza artificiale nell’assistenza sanitaria supererà i 46 miliardi di dollari entro la fine di quest’anno e i 200 miliardi di dollari entro il 2030.

Allo stesso tempo, però sorge una problematica: anche i modelli più sofisticati, infatti, restano sistemi probabilistici. Vi sono, cioè, dei limiti legati alla difficoltà di catturare con precisione informazioni mutevoli nella normale evoluzione clinica dei pazienti. Il pericolo è che tali sistemi possano sovrastimare o sottostimare rischi, generando trattamenti inutili o omissioni pericolose: nell’imparare a prevedere i risultati, i modelli assorbono anche le decisioni cliniche, le relazioni e i pregiudizi che sono incorporati nei dati utilizzati per addestrarli.

Il fenomeno della “contaminazione dei dati”, in particolare, mina la possibilità di apprendimento futuro e richiede un ripensamento radicale sul modo in cui questi strumenti vengono progettati, validati e integrati nella pratica clinica.

L’apprendimento automatico utilizzato in un contesto sanitario, in genere si basa sulla cartella clinica elettronica (EHR) per i pazienti. I dati vengono estratti dall’EHR per addestrare i modelli e, una volta implementati, analizzano i nuovi dati dei pazienti per prevedere i potenziali rischi per la salute. Queste previsioni possono guidare le decisioni cliniche.

Nell’articolo pubblicato su Nature – dal titolo Medical AI can transform medicine — but only if we carefully track the data it touches – si riporta l’esempio di un modello progettato per rilevare i primi segni dell’insorgenza della sepsi: grazie ad esso il medico viene allertato, interviene tempestivamente e il paziente non sviluppa la sepsi. Di conseguenza, il modello segnalato – originariamente collegato alla sepsi – viene registrato nell’EHR come associato a un esito non settico, creando una “associazione contaminata” nei dati. Queste associazioni si accumulano, iniziando a erodere l’affidabilità dei modelli esistenti e persino futuri.

Inoltre, nel tempo, anche i modelli di intelligenza artificiale con buone prestazioni possono degradarsi. I cambiamenti demografici, l’evoluzione degli standard di cura, i nuovi farmaci o i cambiamenti nella pratica clinica possono far sì che le previsioni di un modello diventino meno accurate: tale fenomeno è noto come “deriva del modello”.

In ambito bioetico si impone, pertanto, una riflessione sulla trasparenza, sull’equità e sull’accountability dell’uso dell’IA nella cura.

  1. Interazioni tra modelli e valutazione dell’efficacia

La coesistenza di più modelli clinici (per esempio uno per la sepsi, uno per l’insufficienza renale) può portare, poi, a effetti incrociati non previsti. L’intervento guidato da un modello può rendere, ad esempio, obsoleto il risultato di un altro, anche se i due modelli sono progettati per obiettivi differenti. Si riporta nell’articolo citato che, ad oggi, nessun sistema tiene conto adeguatamente di queste interazioni.

Valutare un modello predittivo è, così, molto complesso. Quando si riesce a prevenire un evento negativo, non si può comunque osservare direttamente il beneficio ottenuto. Inoltre, i trial controllati randomizzati sono difficili da attuare su larga scala e la validazione su dati esterni è minata dalla presenza di “dati già toccati” da altri modelli.

  1. Prospettive di intervento

L’introduzione non regolamentata dell’IA in medicina rischia di sacrificare l’affidabilità a lungo termine per vantaggi immediati. Il progresso tecnologico dovrebbe, invece, essere accompagnato da un’etica della responsabilità, della trasparenza e della giustizia. I dati sanitari sono un bene comune e, come tali, devono essere protetti da contaminazioni e da derive applicative.

Lo studio pubblicato su Nature suggerisce per il futuro l’utilizzo di una documentazione esplicita: è, infatti, essenziale annotare ogni volta che una decisione clinica è influenzata da un modello predittivo. Inoltre, sarebbe utile creare degli “dataset oro” – e cioè degli insiemi di dati curati, privi di influenze, per l’addestramento e la validazione – e delle istituzioni “feeder”: luoghi nei quali i modelli non sono impiegati, ma rimangono conservati dalle contaminazioni. Tuttavia, questo solleva nuovi dilemmi etici: è accettabile negare strumenti potenzialmente utili per tutelare la ricerca futura?

  1. Conclusioni

L’intelligenza artificiale è una grande opportunità: le applicazioni possono aiutare nella scoperta di nuovi farmaci, nello sviluppo di indagini sempre più sofisticate per la diagnosi precoce di patologie, nella cura. D’altra parte, però gli errori sistemici possono moltiplicarsi, producendo gravi ingiustizie in singoli casi, ma anche disuguaglianze sociali.

La responsabilità sulle decisioni che interessano la vita del paziente richiedono scelte ponderate ed eticamente motivate, nel rispetto della dignità inviolabile del paziente e del principio del consenso informato: tali decisioni e responsabilità devono sempre rimanere in capo alle persone e mai essere delegati alla sola IA.

 

Per approfondire: 

ultimo aggiornamento il 2 Luglio 2025

Share