S&V FOCUS | Consent-GPT: Intelligenza Artificiale per il consenso informato Gli approfondimenti di Scienza & Vita | di Francesca Piergentili

facebooktwitterredditpinterestlinkedinmail

Il principio del consenso informato ha una posizione centrale in ambito medico, rappresentando uno strumento di comunicazione e condivisione del percorso diagnostico e terapeutico. In Italia, come noto, l’art. 1 della legge n. 219 del 2017 prevede la promozione e la valorizzazione della “relazione di cura e di fiducia tra paziente e medico che si basa sul consenso informato nel quale si incontrano l’autonomia decisionale del paziente e la competenza, l’autonomia professionale e   la responsabilità del medico”.

Il paziente ha diritto di conoscere le proprie condizioni di salute e di essere informato in modo completo, aggiornato e comprensibile riguardo alla diagnosi, alla prognosi, ai benefici e ai rischi degli accertamenti diagnostici e dei trattamenti sanitari, ma anche sulle possibili alternative   e   conseguenze dell’eventuale rifiuto.  Alla relazione di cura contribuiscono, in base alle competenze, i professionisti sanitari che fanno parte dell’equipe sanitaria.

È proprio in tale ambito, all’interno della relazione di cura, che i rapidi progressi della ricerca e, in particolare, gli sviluppi nel campo dell’intelligenza artificiale generativa, sembrano poter segnare un punto di svolta.

Un recente articolo pubblicato su Journal of Medical Ethics, dal titolo Consent-GPT: is it ethical to delegate procedural consent to conversational AI?, si interroga, infatti, sui modelli linguistici di grandi dimensioni (LLM) come GPT (o Generative Pre-trained Transformer) di Open-AI, e sull’uso di tali modelli per la raccolta del consenso informato, in sostituzione dell’attività umana del professionista sanitario. Gli attuali LLM sono, infatti, in grado di simulare la conversazione umana in modo realistico; l’uso per dare informazioni complete e aggiornate sembrerebbe già tecnicamente possibile. Ma quali sono i risvolti sul piano etico? Sono, infatti, molteplici le questioni aperte sull’uso del cd. “Consent-GPT” in ambito sanitario. Come per altri usi dell’AI in medicina, anche per l’uso per la raccolta del consenso informato, potrebbero esserci rischi legati alla sicurezza, alla riservatezza dei dati, all’utilizzo equo e sul piano delle responsabilità. È, infatti, proprio nel consenso informato che l’autonomia del paziente si incontra con la competenza, l’autonomia professionale e la responsabilità del medico: è possibile sostituire quest’ultimo con la tecnologia senza snaturare la relazione di cura?

Nell’articolo pubblicato su Journal of Medical Ethics si suggerisce, in caso di uso di Consent-GPT, di documentare in forma scritta tutta la procedura informativa e di raccolta del consenso, per consentire l’attività di verifica e di consultazione da parte del medico curante. Il paziente potrebbe aver, comunque, bisogno di risposte ulteriori alle sue preoccupazioni e domande, rivolgendosi direttamente al medico curante, il quale dovrebbe concordare un incontro di approfondimento. Il medico, ad ogni modo, dovrebbe assumersi la responsabilità finale ma andrebbero, comunque, implementate misure di salvaguardia per garantire che gli LLM operino in modo sicuro e corretto. Inoltre, gli sviluppatori di software dovrebbero condividere una parte di responsabilità in caso di errori o difetti nel sistema di intelligenza artificiale.

Si afferma, inoltre, che spesso il momento dell’acquisizione del consenso informato si riduce alla sottoscrizione di moduli contenenti informazioni non adeguate o poco comprensibili per il paziente per la complessità del linguaggio utilizzato: in questi casi la tecnologia potrebbe offrire il suo contributo, fornendo al paziente informazioni più specifiche, complete, adeguate e personalizzate. I medici potrebbero trarre vantaggio dalla semplificazione del flusso di lavoro e dal miglioramento delle inefficienze amministrative.

Una delle principali preoccupazioni legate all’uso di Consent-GPT riguarda, invece, il rischio di fornire, in un ambito così delicato per la persona, una cattiva informazione derivante dalla natura di “black box” dei sistemi di AI, o addirittura informazioni false; si evidenzia, inoltre, il pericolo di dare informazioni influenzate da possibili pregiudizi contenuti nei dati di addestramento. L’accuratezza e la completezza delle informazioni è chiaramente fondamentale per il consenso ai trattamenti sanitari.  Per l’utilizzo di un sistema come Consent-GPT in ambito clinico è prima necessaria una valutazione formale della sua accuratezza medica.

Un aspetto problematico rimarrebbe in ogni caso quello relativo al rapporto di fiducia: l’uso dell’AI in un processo così intrinsecamente umano potrebbe essere accolto con scetticismo o paura da parte dei pazienti. Sarà possibile fidarsi di algoritmi che danno informazioni sanitarie e personali, riguardanti decisioni così importanti per la salute e la vita della persona?

Si dimentica, in fondo, che il tempo della comunicazione tra medico e paziente non è solo una procedura tecnica per fornire informazioni e ricevere un consenso, una sorta di strumento per effettuare uno scambio di dati, ma costituisce essa stessa parte integrante del “tempo di cura”.

 

Per approfondire:

Allen JW, Earp BD, Koplin J, et al Consent-GPT: is it ethical to delegate procedural consent to conversational AI?, Journal of Medical Ethics, 2024

 

image_pdf
facebooktwitterredditpinterestlinkedinmail
Pubblicato in Box in evidenza, Uncategorized