S&V FOCUS | 16 ottobre 2025

AI e dilemmi etici | La proposta di un algoritmo decisionale per l’implementazione etica dell’intelligenza artificiale black-box in medicina

Gli approfondimenti di Scienza & Vita | di Francesca Piergentili

Thinking AI humanoid robot analyzing screen of mathematics formula and science equation by using artificial intelligence and machine learning process for the 4th industrial revolution. 3D illustration

L’introduzione dell’intelligenza artificiale (IA) nella pratica clinica costituisce oggi uno dei campi più promettenti ma anche più controversi della medicina contemporanea.

La capacità dei sistemi algoritmici di elaborare enormi quantità di dati, individuare correlazioni complesse e formulare previsioni diagnostiche o terapeutiche supera in molti casi la capacità umana di analisi e decisione. Tuttavia, molti dei modelli – in particolare le reti neurali profonde e i modelli linguistici di grandi dimensioni – operano secondo logiche interne non facilmente interpretabili neanche dai loro stessi sviluppatori, e per tale motivo definite opache: essi ne conoscono l’architettura, ma non possono spiegare in modo trasparente perché un modello abbia preso una decisione specifica. Tale “black-box nature” è in grado di mettere in crisi la trasparenza e i criteri per individuare le responsabilità. La problematica investe anche il principio del consenso informato: come può il paziente dare un consenso informato se non si conosce il processo decisionale dell’algoritmo e, in particolare, gli effetti, i limiti e i rischi clinici del suo uso?

Il tema è affrontato dal contributo pubblicato su Bioethics, intitolato “When Is It Safe to Introduce an AI System Into Healthcare? A Practical Decision Algorithm for the Ethical Implementation of Black-Box AI in Medicine.” Non essendo possibile raggiungere una trasparenza totale nei modelli di tipo black box, gli autori propongono di valutare l’introduzione di un sistema di IA in base al rischio etico e clinico derivante dalla sua implementazione (Implementation Risk). Suggeriscono, nello specifico, lo sviluppo di un algoritmo decisionale, inteso come schema procedurale volto a guidare il processo di adozione dei sistemi di IA secondo una logica di prudenza graduata, e non come sistema automatizzato di valutazione etica.

L’algoritmo del rischio di implementazione nella tecnologia medica

L’algoritmo dovrebbe essere in grado di valutare, infatti, attraverso una sequenza di verifiche, l’idoneità etica di un sistema di IA e, pertanto, di determinare se quest’ultimo possa essere introdotto in un contesto clinico reale. La prima verifica riguarda la robustezza tecnica, e cioè la coerenza e l’affidabilità empirica: gli autori richiedono una giustificazione razionale e documentata dell’utilità clinica del sistema. Il secondo passo consiste nella valutazione della fattibilità dell’implementazione, che implica considerazioni organizzative, operative e formative. La terza verifica riguarda l’analisi dei benefici e dei rischi attesi, considerando sia gli esiti clinici, sia gli impatti sulla relazione di cura, sulla fiducia del paziente e sulla responsabilità professionale, nonché i rischi indiretti, come la perdita di competenze umane o di fiducia nella medicina tradizionale.

Sulla base di queste valutazioni, il sistema di IA viene classificato in una scala di Implementation Risk: minimo, moderato o elevato. Il modello si basa sul principio di proporzionalità: a maggiore rischio dovrebbe corrispondere maggiore rigore regolatorio. Il modello si ispira al Regolamento Ue sull’Intelligenza Artificiale (AI Act), che propone anch’esso una classificazione dei sistemi basata sul rischio. La classificazione non dovrebbe essere meramente descrittiva, ma dovrebbe comportare l’adozione di strategie differenziate di implementazione clinica, calibrate in base al livello di rischio identificato. Nella fase finale di valutazione, dovrebbero essere considerati anche l’efficacia in termini di costi e le implicazioni sul consenso informato dei pazienti.

L’algoritmo, oltre a definire la classificazione del rischio dovrebbe, così, fornire una cornice etica per la governance delle tecnologie mediche: la valutazione etica diventerebbe parte integrante del processo di implementazione e non un controllo ex post.

Secondo tale modello il principio della trasparenza verrebbe reinterpretato: non è da rendere “spiegabile” ogni decisione interna – cosa spesso non tecnicamente possibile – ma è da garantire una trasparenza relazionale, cioè la chiarezza su come l’IA viene utilizzata, chi ne è responsabile, quali limiti ne regolano l’uso e quali sono le forme di supervisione. Rimangono, tuttavia, molti nodi aperti: la determinazione della responsabilità in caso di errore, la definizione di soglie di “accettabilità del rischio”, la gestione dei dati e la protezione della privacy.

La proposta degli autori tenta di trovare un punto di equilibrio dinamico tra innovazione e precauzione, per supportare i medici nell’implementazione dei sistemi di intelligenza artificiale nella pratica clinica in modo etico e responsabile. Tuttavia, sembra trascurare un dato importante: l’algoritmo può ottimizzare una funzione, ma non potrà interrogarsi sul senso di quella funzione. Per tale motivo la valutazione etica non può che rimanere ancorata alla responsabilità umana.

 

Per approfondire:

 

  1. Allen, J.W., Wilkinson, D. and Savulescu, J. (2025), When Is It Safe to Introduce an AI System Into Healthcare? A Practical Decision Algorithm for the Ethical Implementation of Black-Box AI in Medicine. Bioethics.
  2. European Commission. (2024). Artificial Intelligence Act: Regulation (EU) 2024/1689 of the European Parliament and of the Council. Official Journal of the European Union.

ultimo aggiornamento il 20 Ottobre 2025

Share