S&V FOCUS | 8 maggio 2025

Intelligenza Artificiale | Luci e ombre nell’ambito della ricerca scientifica

Gli approfondimenti di Scienza & Vita | di Francesca Piergentili

L’intelligenza artificiale (IA) sta influenzando sempre più, a livello globale, i rapporti interpersonali, l’educazione, il mondo della sanità e dell’assistenza, i conflitti bellici, l’informazione, il lavoro – entrando nei settori produttivi – ma anche il mondo della ricerca scientifica. Con l’aiuto dell’IA, i ricercatori pensano di poter compiere progressi rapidi, effettuare nuove scoperte e migliorare la qualità del lavoro svolto. L’automazione di attività, come la raccolta e l’analisi dei dati, consentirebbe ai ricercatori di avere più tempo disponibile per le sperimentazioni e per le attività creative e strategiche. La speranza è che l’AI possa accelerare l’innovazione scientifica.

L’intelligenza artificiale è, così, considerata il motore del progresso scientifico: consentirebbe di automatizzare alcune attività, analizzare velocemente grandi quantità di dati e generare nuovi approfondimenti. La tecnologia garantirebbe efficienza, estendendo i limiti della conoscenza: sarebbe uno strumento indispensabile per la ricerca, soprattutto per la valutazione di serie di dati scientifici su larga scala e per la generazione di previsioni.

L’articolo pubblicato su Nature

Un articolo pubblicato su Nature, dal titolo “Why an overreliance on AI-drivenmodellingisbad for science”, affronta la tematica, mette in guardia contro i rischi derivanti da un’eccessiva dipendenza dalla modellazione guidata dall’intelligenza artificiale nella ricerca scientifica. Lo studio riporta che tra il 2012 e il 2022, la percentuale di articoli scientifici che si occupano di AI, in venti diversi settori – tra i quali, economia, geologia, scienze politiche e psicologia – è quadruplicata. Nell’articolo si ricorda che l’intelligenza artificiale può essere impiegata in diverso modo nella scienza. Può essere utilizzata per analizzare le problematiche e ricercare soluzioni. I sistemi di AI potrebbero, ad esempio, analizzare in poco tempo una grande quantità di letteratura scientifica per estrarre informazioni rilevanti e dati, accelerando il processo di revisione e la generazione di nuovi contenuti. Un possibile uso dell’intelligenza artificiale è la costruzione di modelli di apprendimento automatico, da poter interrogare per acquisire conoscenze e fare previsioni. Tali approcci, basati sulla modellizzazione, pongono però dei rischi. Si riporta, in particolare, che le informazioni provenienti dai dati di valutazione di un modello possono influenzare in modo improprio il processo di addestramento. Secondo gli autori, in almeno 30 campi scientifici, che vanno dalla psichiatria e biologia molecolare alla sicurezza informatica, gli articoli che utilizzano l’apprendimento automatico sarebbero colpiti da tale errore.

Si riporta, a titolo esemplificativo, il caso della pandemia di Covid-19 e dei molteplici studi che affermavano che l’intelligenza artificiale avrebbe potuto diagnosticare la malattia utilizzando radiografie del torace o scansioni TC. Una revisione sistematica di 415 studi di questo tipo ha rilevato che solo 62 hanno soddisfatto gli standard di qualità di base. In ogni caso, anche in essi, i difetti erano diffusi, tra cui metodi di valutazione scadenti, dati duplicati e mancanza di chiarezza sul fatto che i casi “positivi” provenissero da persone con una diagnosi medica confermata. I ricercatori avevano utilizzato un set di dati di formazione in cui tutti i casi positivi al Covid negli adulti e i negativi nei bambini di età compresa tra uno e cinque anni. Di conseguenza, il modello di intelligenza artificiale aveva semplicemente imparato a distinguere tra adulti e bambini, ma i ricercatori hanno erroneamente concluso di aver sviluppato un rilevatore di covid-19.

Alcuni limiti dell’IA nel campo della ricerca scientifica

La valutazione dell’accuratezza predittiva è molto complicata e, per ora, manca di standardizzazione: gli errori possono essere difficili da individuare e un singolo errore può essere molto costoso. Inoltre, i risultati, anche se privi di errori, potrebbe non portare a un vero progresso scientifico. È possibile, infatti, sopravvalutare le capacità predittive di un modello di intelligenza artificiale, creando solo l’illusione del progresso.

I processi di addestramento richiedono, poi, molto tempo: può, così, accadere che gli LLM in uso contengano informazioni di anni passati, non essendo ancora istruiti su periodi temporali più recenti. Per la ricerca scientifica, invece, è fondamentale la disponibilità di informazioni recenti.

Un altro limite dell’uso dell’IA nella ricerca è il fatto che tali strumenti possono generare testi ma potrebbero non essere in grado di cogliere il significato e la rilevanza di ciò che producono, comportando il rischio di risultati fuorvianti e di minare l’integrità della ricerca.

Nonostante le speranze, vi è, pertanto, ancora molta confusione: un approccio di modellizzazione utile e buono per l’ingegneria, non è detto che sia per ciò solo buono anche per la scienza.

Conclusioni

Gli usi dell’IA sono oggi innumerevoli, ma è sempre necessario un atteggiamento prudenziale. I rischi, infatti, dell’IA sono superiori a quelli dei metodi statistici e del loro uso errato, vista la maggior complessità dei sistemi e la natura di “scatola nera”. Alcuni editori hanno imposto limiti nell’utilizzo di LLM nelle pubblicazioni scientifiche. Altri   hanno, invece, evidenziato la necessità di trasparenza.

Si avverte, pertanto, l’urgente necessità di adottare linee guida scientifiche chiare su come utilizzare questi strumenti, anche in considerazione del fatto che nella pratica non esistono degli strumenti per rilevare in maniera adeguata i testi generati con intelligenza artificiale generativa.

Come ricordava pochi mesi fa il documento “Antiqua et nova. Nota sul rapporto tra intelligenza artificiale e intelligenza umana”, l’intelligenza umana non può essere ridotta alla semplice acquisizione di fatti o alla capacità di eseguire certi compiti specifici: l’intelligenza è in grado di “considerare l’esistenza nella sua interezza che non si esaurisce in ciò che è misurabile, cogliendo dunque il senso di ciò che è arrivata a comprendere”. L’intelligenza umana possiede, così, “un’essenziale dimensione contemplativa, cioè un’apertura disinteressata a ciò che è Vero, Buono e Bello al di là di ogni utilità particolare”.

Sebbene sia una straordinaria conquista tecnologica, l’IA opera soltanto eseguendo compiti, raggiungendo obiettivi o prendendo decisioni basate su dati quantitativi e sulla logica computazionale. L’IA può facilitare la collaborazione tra esperti per risolvere problemi molto complessi. Tuttavia, “essa rimane fondamentalmente confinata in un ambito logico-matematico, il quale le impone alcune limitazioni intrinseche. Sebbene, infatti, i sistemi avanzati possano “imparare”, l’addestramento è essenzialmente diverso dallo sviluppo di crescita dell’intelligenza umana.

 

Per approfondire:

 

  1. Why an overreliance on AI-driven modelling is bad for science, Nature Aprile 2025
  2. Messeri, L., Crockett, M.J. Artificial intelligence and illusions of understanding in scientific research. Nature, 2024
  3. Dicastero per la Dottrina della fede e il Dicastero per la cultura e l’educazione, “Antiqua et nova. Nota sul rapporto tra intelligenza artificiale e intelligenza umana”, 2025.

ultimo aggiornamento il 27 Giugno 2025

Share