S&V FOCUS | 6 febbraio 2025

Intelligenza (funzionale) Artificiale e Intelligenza umana nella Nota “Antiqua et Nova”

Gli approfondimenti di Scienza & Vita | di Francesca Piergentili

Rearview of the businessman in an elegant suit sitting in a chair next to the white robot cyborg in a studio. AI or artificial intelligence vs people, employment concept,working on a laptop

Il Dicastero per la Dottrina della fede e il Dicastero per la cultura e l’educazione hanno pubblicato un prezioso documento che affronta le questioni antropologiche ed etiche sollevate dall’Intelligenza Artificiale (IA): “Antiqua et nova. Nota sul rapporto tra intelligenza artificiale e intelligenza umana”.

L’influenza dell’IA si fa sentire ormai a livello globale, in un’ampia gamma di settori: nei rapporti interpersonali, nell’educazione, nel lavoro, nella sanità, nel diritto, nella guerra. La Nota considera sia le opportunità, sia le nuove sfide poste dal sapere scientifico e tecnologico, partendo dalla considerazione che uno degli scopi di questa tecnologia è quello di imitare l’intelligenza umana che l’ha progettata: essendo progettata per imparare e adottare in autonomia alcune scelte, adeguandosi alle situazioni non previste dai programmatori, ne derivano importanti problematiche di responsabilità etica e di sicurezza, che inducono “l’umanità a interrogarsi circa la propria identità e il proprio ruolo nel mondo”. Ciò comporta non solo l’attenzione ai rischi e la prevenzione dei danni, ma anche la necessità che le applicazioni siano dirette alla promozione del progresso umano e del bene comune.

Lo stesso concetto di “intelligenza” nell’IA si è evoluto nel tempo. Le radici risalgono a secoli fa, ma un momento importante si è avuto nel 1956, quando l’informatico statunitense John McCarthy organizzò un convegno presso l’Università di Dartmouth sull’Intelligenza artificiale e, cioè, sulla possibilità di rendere una macchina in grado di eseguire comportamenti che sarebbero chiamati intelligenti se fosse un essere umano a produrli.

Nonostante negli anni si sia sviluppato sempre più l’uso dell’espressione “intelligenza artificiale”, il documento fa notare che “la maggior parte dei sistemi contemporanei, in particolare quelli che usano l’apprendimento automatico, si basa su inferenze statistiche piuttosto che su deduzioni logiche”: analizzando grandi insiemi di dati, l’IA può “predirne” gli effetti e proporre nuovi percorsi di indagine, imitando alcuni processi cognitivi della capacità umana di risoluzione dei problemi. Ciò è stato possibile grazie ai progressi nella tecnologia informatica e alle innovazioni nelle apparecchiature. Nel contesto dell’IA, si usa la parola “intelligenza”, ma in una prospettiva esclusivamente “funzionale”, che si basa sulla capacità di produrre risposte adeguate.

Per quanto riguarda l’essere umano, l’intelligenza è, invece, una facoltà relativa alla persona nella sua integralità: mentre l’IA ha “sofisticate capacità di eseguire compiti”, solo l’uomo ha la facoltà di “pensare”. L’intelligenza umana si mostra “come una facoltà che è parte integrante del modo in cui tutta la persona si coinvolge nella realtà”, abbracciando “l’intera portata del proprio essere: spirituale, cognitivo, incarnato e relazionale”. Nella sua “unicità multiforme”, l’essere umano “cerca di capire il mondo, si relaziona con gli altri, risolve problemi, esprime la sua creatività e ricerca il benessere integrale attraverso la sinergia delle diverse dimensioni dell’intelligenza”.

L’intelligenza umana, pertanto, non può essere ridotta alla semplice acquisizione di fatti o alla capacità di eseguire certi compiti specifici, ma implica, invece, l’apertura della persona alle domande ultime della vita: l’intelligenza è in grado di “considerare l’esistenza nella sua interezza che non si esaurisce in ciò che è misurabile, cogliendo dunque il senso di ciò che è arrivata a comprendere”. L’intelligenza umana possiede, così, “un’essenziale dimensione contemplativa, cioè un’apertura disinteressata a ciò che è Vero, Buono e Bello al di là di ogni utilità particolare”.

Sebbene sia una straordinaria conquista tecnologica, l’IA opera soltanto eseguendo compiti, raggiungendo obiettivi o prendendo decisioni basate su dati quantitativi e sulla logica computazionale. In questo senso, l’IA può facilitare la collaborazione tra esperti per risolvere problemi molto complessi. Tuttavia, “essa rimane fondamentalmente confinata in un ambito logico-matematico, il quale le impone alcune limitazioni intrinseche. Sebbene, infatti, i sistemi avanzati possano “imparare”, l’addestramento è essenzialmente diverso dallo sviluppo di crescita dell’intelligenza umana, essendo questa plasmata dalle sue esperienze corporee: stimoli sensoriali, risposte emotive, interazioni sociali e il contesto unico che caratterizza ogni momento.

L’utilizzo della parola “intelligenza” non deve, allora, essere fuorviante. Il valore dell’essere umano non dipende dal possesso di singolari abilità, dai risultati cognitivi e tecnologici o dal successo individuale, bensì dalla sua intrinseca dignità, che è alla base del riconoscimento dei diritti umani – e dei “neurodiritti” – i quali “possono servire come guida etica fondamentale nelle discussioni circa un responsabile sviluppo e uso dell’IA”.

In tale orizzonte, la Nota ricorda che l’attività tecnica e scientifica non è mai neutra, “essendo un’impresa umana che chiama in causa le dimensioni umanistiche e culturali dell’ingegno umano”. Sono le persone a progettare i sistemi e a determinare gli scopi. Come ogni prodotto dell’ingegno umano, anche l’IA può essere diretta verso fini positivi o negativi: quando viene usata secondo modalità che rispettano la dignità umana, essa può contribuire favorevolmente alla vocazione umana: “la valutazione morale di questa tecnologia dipende da come essa venga indirizzata e impiegata”. I fini, i mezzi usati nell’applicazione dell’IA, la visione generale che incorpora, devono essere valutati per assicurare il rispetto della dignità umana e promuovere il bene comune.

Le nuove sfide, allora, chiamano in causa “la responsabilità morale fondata sulla dignità e sulla vocazione della persona”. Bisogna, pertanto, dare attenzione “alla natura dei processi di attribuzione di responsabilità” in sistemi complessi e con elevata automazione. Tale responsabilità è condivisa, però, anche con gli utenti: i quadri normativi dovrebbero garantire che tutte le persone giuridiche possano rendere conto dell’uso dell’IA e di tutte le sue conseguenze, con adeguate misure a salvaguardia di trasparenza, riservatezza e responsabilità (accountability), mentre “gli utenti dovrebbero fare attenzione a non diventare eccessivamente dipendenti dall’IA per le proprie decisioni”.

La mancanza di una responsabilità (accountability) ben definita produce il rischio che l’IA possa essere manipolata per guadagni personali o aziendali, o per orientare l’opinione pubblica verso l’interesse di un settore.  Oltre a ciò, vi è il rischio della promozione del «paradigma tecnocratico», “il quale intende risolvere tendenzialmente tutti i problemi del mondo attraverso i soli mezzi tecnologici”. Seguendo questo paradigma, la dignità umana e la solidarietà sono spesso messe da parte in nome dell’efficienza.

La Nota affronta, poi, alcune questioni specifiche, prima tra tutte quella dell’IA e le relazioni umane. Come altri mezzi tecnologici, l’IA ha la capacità di favorire le connessioni tra persone, tuttavia, potrebbe anche ostacolare un vero incontro con la realtà e, in definitiva, portare le persone a una profonda insoddisfazione nelle relazioni interpersonali e alla solitudine. Le autentiche relazioni umane, tuttavia, “richiedono la ricchezza umana del saper stare con gli altri, condividendo il loro dolore, le loro richieste e la loro gioia”. L’antropomorfizzazione dell’IA pone particolari problemi per la crescita dei bambini, i quali possono sentirsi incoraggiati a sviluppare schemi di interazione che intendono le relazioni umane in modo utilitaristico, così come avviene con i chatbot. La Nota chiarisce che “nessuna applicazione dell’IA è in grado di provare davvero empatia”: “le emozioni non si possono ridurre a espressioni facciali oppure a frasi generate in risposta alle richieste dell’utente…L’empatia richiede capacità di ascolto, di riconoscere l’irriducibile unicità dell’altro, di accogliere la sua alterità e anche di capire il significato dei suoi silenzi”. La vera empatia può esistere solo nella sfera relazionale.

Il documento affrontale questioni dell’IA nel mondo dell’economia e del lavoro, evidenziando il rischio di nuove diseguaglianze: si ricorda che il lavoro umano deve essere non solo al servizio del profitto ma dell’uomo integralmente considerato, tenuto conto dei suoi bisogni materiali e spirituali.

 L’IA ha, poi, un enorme potenziale in ambito sanitario, ma la responsabilità per il benessere del paziente e le relative decisioni che interessano la sua vita rappresentano il cuore della professione sanitaria, richiedendo sempre al personale medico la capacità e l’intelligenza per compiere scelte ponderate ed eticamente motivate nei confronti delle persone affidate alla loro cura, nel rispetto della dignità inviolabile del paziente e del principio del consenso informato: “di conseguenza, le decisioni che riguardano il trattamento dei pazienti e il peso della responsabilità ad esse legato devono sempre rimanere in capo alle persone e mai essere delegati all’IA”. Inoltre l’uso dell’IA per determinare chi debba ricevere cure, basandosi prevalentemente su criteri economici o di efficienza, è un caso particolarmente problematico di paradigma tecnocratico.

Per quanto riguarda l’educazione, si ricorda che al centro di questo lavoro di formazione della persona umana integrale si trova l’indispensabile relazione tra insegnante e studente; “gli insegnanti non si limitano a trasmettere la conoscenza, ma sono anche modelli delle principali qualità umane e ispiratori della gioia”. In questo ambito, l’IA presenta sia opportunità che sfide. Se usata in maniera prudente, all’interno di una reale relazione tra insegnante e studente e ordinata agli scopi autentici dell’educazione, essa può diventare una preziosa risorsa educativa. In un’epoca segnata dalla tecnologia, con una cultura ampiamente digitalizzata – con impatti sulla nozione di tempo e di spazio, sulla percezione di sé, degli altri e del mondo, sul modo di comunicare, di apprendere, di informarsi, di entrare in relazione con gli altri – l’ampio ricorso all’IA in ambito educativo potrebbe portare a un’accresciuta dipendenza degli studenti dalla tecnologia, intaccando la loro capacità di svolgere alcune attività in modo autonomo e un peggioramento della dipendenza dagli schermi. È, pertanto, necessario promuovere lo sviluppo di un pensiero critico.

Un’applicazione dell’IA particolarmente pericolosa è quella militare: i sistemi di controllo da remoto portano a una minore percezione del male causato; si pensi al caso dei sistemi di armi autonome e letali, in grado di identificare e colpire obiettivi senza intervento umano diretto. “Nessuna macchina dovrebbe mai scegliere se togliere la vita ad un essere umano”. Lo sviluppo e l’impiego dell’IA negli armamenti dovrebbero essere soggetti ai più alti livelli di controllo etico, avendo cura che siano rispettati la dignità umana e la sacralità della vita.

Appare, allora, decisivo “saper valutare criticamente le singole applicazioni nei contesti particolari, al fine di determinare se esse promuovano o meno la dignità e la vocazione umane e il bene comune”. In ogni caso, l’IA “dovrebbe essere utilizzata solo come uno strumento complementare all’intelligenza umana e non sostituire la sua ricchezza”.

La Nota, nel suo complesso, ci esprime l’urgenza di “coltivare gli aspetti della vita umana che vanno oltre il calcolo”, per preservare un’autentica umanità. Di fronte alle profonde questioni e alle nuove sfide etiche poste dall’IA, è necessario “uno sguardo spirituale”: la “sapienza del cuore”, che la macchina non può conoscere né replicare.

 

Dicastero per la Dottrina della fede, Dicastero per la cultura e l’educazione, “Antiqua et nova. Nota sul rapporto tra intelligenza artificiale e intelligenza umana”, gennaio 2025

ultimo aggiornamento il 17 Aprile 2025

Share