S&V FOCUS | 3 ottobre 2023

Intelligenza artificiale e decisioni cliniche. Quali responsabilità in caso di danno al paziente?

Gli approfondimenti di S&V | di Francesca Piergentili

Il progresso nell’apprendimento automatico, nella robotica e nella clinica, ha permesso lo sviluppo di sistemi sempre più sofisticati e autonomi in grado di prendere decisioni e imparare dall’esperienza. Il processo decisionale in medicina è, così, sempre più proiettato fuori dalla supervisione umana, ponendo importanti sfide di natura etica e giuridica: come si attribuirà la responsabilità per il danno causato al paziente?

Gli operatori sanitari sono da sempre i soggetti direttamente coinvolti nella cura del paziente attraverso il processo decisionale clinico e il successivo intervento (o il non intervento) clinico: il medico valuta le condizioni del  paziente e una grande quantità e varietà di dati prima di  proporre il trattamento, considerando anche la necessità di diminuire l’incertezza diagnostica e i rischi per il paziente. Al medico spetta la decisione su quali informazioni raccogliere, quali test prescrivere, quali trattamenti proporre. La pianificazione delle cure viene successivamente concordata con il paziente.

Negli ultimi anni sono stati sviluppati sistemi di intelligenza artificiale per aiutare il processo decisionale clinico. Tali sistemi non si avvicinano al paziente ma elaborano l’input di dati sul paziente e generano output che consigliano il medico curante. Un esempio è il sistema “Watson for Oncology” che esamina la cartella clinica di un paziente, elabora le informazioni in essa contenute, calcola le opzioni e presenta al medico un elenco di trattamenti in ordine di classifica. Il sistema Watson non prende però decisioni al posto del medico ma fornisce raccomandazioni basate su ipotesi e prove: è il clinico che ha la responsabilità ultima della decisione.

I principali vantaggi dei sistemi di intelligenza artificiale nel processo decisionale clinico sono: la tecnologia è in grado di accedere ed elaborare informazioni complesse a un ritmo più veloce di qualsiasi medico umano; è sempre aggiornata; analizza una grande quantità di dati per generare piani su misura per il paziente.

Un recente articolo pubblicato sulla rivista Bioethics ha approfondito il tema dell’impiego dell’intelligenza artificiale nei processi decisionali clinici, offrendo in particolare una riflessione sulla responsabilità morale. La cura del paziente è stata tradizionalmente affidata alla responsabilità del medico, guidato nella sua condotta dal codice deontologico e direttamente responsabile delle sue azioni. Anche quando il trattamento è intrapreso da medici qualificati, esiste sempre, sia nel processo decisionale che nella somministrazione di cure e trattamenti, il rischio di errori e di provocare danni al paziente.

Il medico attualmente è responsabile della decisione del trattamento, anche rispetto alle società che sviluppano tali tecnologie utilizzate nel processo decisionale. Oggi però le società che sviluppano i software che aiutano il medico nel processo decisionale possono direttamente influenzare la cura.

Nell’articolo pubblicato su Bioethics si evidenzia, così, uno “squilibrio” di responsabilità, definito ‘moral crumple zone’. La responsabilità è, infatti, attribuita solamente al clinico, mentre le società sono esonerate dalle eventuali conseguenze di errori causati dalle tecnologie da esse sviluppate. Lo studio propone, invece, un modello di responsabilità condivisa, che considera le società come nuovi attori nel processo decisionale clinico.

Questo modello dovrebbe garantire un adeguato risarcimento per il paziente danneggiato ma anche una adeguata attività di prevenzione dei danni. Quando, la tecnologia, infatti, non è progettata con la capacità di spiegare il suo ragionamento, i processi e i risultati, per il medico può non essere trasparente e sfuggire al suo controllo (come nel caso dell’apprendimento automatico).

Anche le società avrebbero allora un dovere di diligenza simile a quello dei medici, a causa della loro capacità di influenzare il processo decisionale clinico: se tale dovere di diligenza viene violato, allora, le società dovrebbero anche assumersi la responsabilità per eventuali eventi avversi derivanti da tale violazione.  Anche le società sono così chiamate a riflettere sulle conseguenze negative e/o dannose che potrebbero derivare dal funzionamento dei sistemi in ambiente clinico e a adottare misure preventive per attenuarle.

La responsabilità condivisa offrirebbe alcuni vantaggi dal punto di vista etico e pratico: consentirebbe ai medici di non sentire il peso di tutta la responsabilità nell’utilizzo della tecnologia nel processo decisionale clinico; potrebbe incoraggiare le società a dimostrare la loro affidabilità, poiché la sicurezza delle tecnologie è fondamentale per il loro successo.

Il modello descritto dagli autori sembra delineare un sistema integrato di cura e di responsabilità, che non intende deresponsabilizzare il clinico quanto piuttosto incentivare collaborazioni, anche in ottica precauzionale, e sviluppare maggior consapevolezza nell’offerta di cura. Il medico manterrebbe in ogni caso il suo ruolo fondamentale e centrale nella decisione clinica, con il sostegno degli sviluppatori di intelligenza artificiale, per offrire una migliore assistenza al paziente.

L’intelligenza artificiale fornirebbe un sostengo al clinico, una assistenza nelle decisioni umane: rimarrebbe al medico, con le sue competenze, la sua capacità di coscienza, di libertà e di responsabilità, la decisione finale.

Per approfondire:

  1. Smith, H., Birchley, G., & Ives, J. (2023). Artificial intelligence in clinical decision-making: Rethinking personal moral responsibility. Bioethics, 1–9. https://doi.org/10.1111/bioe.13222 
  1. Jamjoom AAB, Jamjoom AMA, Thomas JP, Palmisciano P, Kerr K, Collins JW, Vayena E, Stoyanov D, Marcus HJ; iRobotSurgeon Collaboration. Autonomous surgical robotic systems and the liability dilemma. Front Surg. 2022 Sep
  1. Elish, M. C. (2019). Moral crumple zones: Cautionary tales in human-robot interaction. Engaging Science, Technology, and Society

ultimo aggiornamento il 20 Marzo 2024

Share