
La nuova interfaccia dedicata che consente di caricare cartelle cliniche e integrare dati sanitari personali, segna un momento di svolta epocale (e potenzialmente inquietante) nella storia della medicina digitale.
Al cuore della questione vi è la tensione ontologica tra la natura stocastica dei Large Language Models (Llm) e la necessità di determinismo e accuratezza fattuale che la pratica medica esige. L’algoretica, intesa come l’etica applicata agli algoritmi, ci costringe a interrogarci sulla validità epistemologica di un sistema che non “conosce” la medicina ma predice la sequenza di parole più probabile in risposta a un input. Nonostante le rassicurazioni di OpenAI riguardo all’isolamento dei dati sanitari e all’esclusione di questi ultimi dal training dei modelli futuri, il rischio delle cosiddette “allucinazioni” rimane una spada di Damocle. Un errore algoritmico nella stesura di un riassunto clinico o nell’interpretazione di un esame diagnostico non è un semplice “bug” software, ma una potenziale fonte di iatrogenesi digitale. La plausibilità sintattica delle risposte fornite da ChatGpt può indurre nell’utente non esperto una falsa percezione di autorevolezza, portando a forme pericolose di auto-diagnosi o a una gestione terapeutica fai-da-te priva di supervisione critica.
Sul piano strettamente bioetico, l’integrazione di dati sanitari sensibili in piattaforme proprietarie solleva interrogativi radicali sulla sovranità del dato e sulla privacy.
Sebbene l’infrastruttura prometta conformità agli standard Hipaa e una cifratura avanzata, la centralizzazione di una tale mole di informazioni biologiche in mano a un’entità privata commerciale rappresenta un rischio sistemico senza precedenti. La storia recente della tecnologia ci insegna che le policy sulla privacy sono fluide e soggette a modifiche unilaterali; affidare i segreti del proprio corpo a un “black box” algoritmico richiede un atto di fede che mal si concilia con il principio di precauzione. Inoltre, vi è il rischio concreto di esacerbare le disuguaglianze sanitarie: se questi strumenti avanzati fossero ottimizzati prevalentemente su dataset occidentali o accessibili solo tramite abbonamenti premium, si creerebbe una frattura insanabile tra chi può permettersi un “assistente sanitario digitale” e chi è relegato a servizi tradizionali sempre più saturi.
Ancor più profonda è la preoccupazione riguardante l’erosione della relazione medico-paziente, pietra angolare dell’ippocratismo. La medicina non è mera elaborazione di dati ma un’arte ermeneutica che si fonda sull’empatia, sull’intuizione e sul contesto biografico del sofferente, elementi che nessun algoritmo, per quanto sofisticato, può replicare.
L’interposizione di un’interfaccia conversazionale rischia di ridurre il paziente a una somma di parametri e il medico a un mero validatore di output automatizzati, svuotando l’atto clinico della sua essenza umanistica. Delegare la spiegazione di una diagnosi complessa o la gestione di una terapia cronica a un chatbot, per quanto efficiente, significa abdicare al dovere etico dell’accompagnamento e della cura intesa come relazione interpersonale.
In conclusione, il lancio di ChatGpt Health non deve essere accolto con luddismo pregiudiziale ma nemmeno con acritica accettazione. È imperativo che la comunità scientifica, i legislatori e la società civile vigilino affinché l’innovazione tecnologica rimanga un supporto strumentale al giudizio umano e non un suo sostituto. La sfida dei prossimi anni non sarà solo tecnica ma profondamente filosofica: definire i confini dell’algoritmo per preservare la dignità della persona umana.
Solo attraverso una rigorosa applicazione dei princìpi dell’algoretica potremo garantire che l’intelligenza artificiale in medicina sia, in ultima istanza, veramente “intelligente” e non solo computazionalmente potente.
ultimo aggiornamento il 15 Gennaio 2026

