S&V FOCUS | 13 febbraio 2025

Intelligenza Artificiale | OpenAI. Analizza il problema, ragiona e svolge compiti sempre più complessi. Quando è vero progresso?

Gli approfondimenti di Scienza & Vita | di Francesca Piergentili

AI robot wearing a graduate cap graduated from university, artificial intelligence is replacing and displacing humans

L’azienda tecnologica OpenAI ha reso noto che il suo ultimo modello sperimentale di chatbot, o3, ha ottenuto un punteggio elevato in un test che misura le capacità di ragionamento dell’intelligenza artificiale generale (AGI). Il test ARC-AGI (Abstraction and Reasoning Corpus for Artificial General Intelligence) è un benchmark progettato nel 2019 da François Chollet per misurare le capacità di ragionamento e generalizzazione delle intelligenze artificiali, valutando se un modello sia in grado di affrontare problemi complessi, attraverso esercizi che richiedono di dedurre regole implicite a partire da esempi di input e output.

Il nuovo modello di OpenAI sarebbe, pertanto, in grado di analizzare un problema per fornire risposte che richiedono un ragionamento logico graduale e svolgere compiti sempre più complessi. Il modello, secondo Nature, avrebbe ottenuto un punteggio dell’87,5% nel test ARC-AGI, superando il precedente record di un sistema di intelligenza artificiale, che aveva ottenuto il punteggio del 55,5%

Il modello potrebbe velocizzare la progettazione e l’analisi di milioni di variabili in tempo reale. Allo stesso tempo però, solleva importanti questioni etiche e giuridiche.

Si pensi, ad esempio, al problema delle disuguaglianze digitali: la disponibilità di strumenti così avanzati potrebbe rimanere confinata nelle mani di pochi. Le applicazioni tecnologiche dovrebbero essere, invece, accessibili e trasparenti. Un problema è anche l’elevato consumo energetico: la potenza necessaria per addestrare modelli di questa scala comporta costi molto elevati. Nonostante le sue elevate prestazioni, il processo è costoso e richiede circa 14 minuti per attività, sollevando preoccupazioni sulla sostenibilità. C’è inoltre chi ha messo in dubbio l’efficacia del test ARC-AGI per la valutazione del ragionamento: un esperto, David Rein, ha, ad esempio, sottolineato che è molto difficile creare test cognitivi imparziali per l’IA.

OpenAI ha da poco presentato uno strumento a pagamento chiamato “ricerca approfondita”, che sintetizza le informazioni provenienti da centinaia di siti Web in un unico rapporto. Lo strumento di ricerca combina le capacità di ragionamento dell’o3 large language model (LLM) con la capacità di effettuare ricerche su Internet. Tale tecnologia potrebbe divenire un utilissimo “assistente” personale, svolgendo in pochi minuti un lavoro molto complesso, che per l’uomo sarebbe possibile solo dopo tante ore di studio e lavoro. Su Nature si riporta che molti scienziati sono rimasti colpiti dalla sua capacità di scrivere articoli di revisione completi e di identificare le lacune nelle conoscenze.

Anche tale tecnologia appare altamente problematica, non solo per le gravi possibili ricadute sul lavoro dell’uomo e sulla sostituzione dell’occupazione umana con le macchine, ma anche per le incertezze sulla qualità e sull’affidabilità delle ricerche stesse.

OpenAI ha ammesso sulla sua pagina web che lo strumento è ancora agli inizi e ha dei limiti: può sbagliare, ad esempio, le citazioni o non distinguere le informazioni autorevoli dalle altre. L’azienda prevede che i problemi miglioreranno con il maggior utilizzo e il trascorrere del tempo.

L’IA può rappresentare un sostegno per la persona umana e la società se usata come ausilio nella comprensione di fatti complessi. Tuttavia, è serio il rischio di contenuti manipolati e falsi, molto difficili da distinguere, che creano inganni e distorsioni della realtà. Questo può accadere anche in modo accidentale, come nel caso di “allucinazione” dell’IA: e, cioè, quando un sistema generativo produce contenuti che sembrano riflettere la realtà, ma non sono veritieri. Le conseguenze di tali falsi contenuti possono essere anche gravi. Un problema ulteriore, legato a quest’ultimo, è quello di un suo uso intenzionale a fini di manipolazione. È, ad esempio, il caso dell’operatore umano che genera intenzionalmente e divulga informazioni per ingannare o danneggiare (si pensi al deepfake, alla falsa rappresentazione di una persona generata dall’IA). Tali contenuti distorti e ingannevoli possono avere conseguenze gravi e progressivamente minare le fondamenta della società.

Si richiede, pertanto, anche per tali applicazioni un’attenta regolamentazione.  Tutti i soggetti coinvolti e utenti sono, inoltre, chiamati a una continua prudenza e un attento discernimento riguardo alla propria attività in rete.

Il pericolo insito in tali modelli di IA è quello di alimentare il paradigma tecnocratico, che intende risolvere tutti i problemi attraverso i soli mezzi tecnologici, in nome della massima efficienza, sacrificando eventualmente anche la dignità umana e l’uguaglianza.  Il vero progresso non può, però, prescindere da tali principi: un progresso umano nel campo tecnologico si può promuovere solo attraverso lo sviluppo di modelli di IA al servizio del bene comune e della dignità di ogni uomo.

Per approfondire: 

  1. OpenAI’s ‘deep research’ tool: is it useful for scientists?, Nature, febbraio 2025
  2. How should we test AI for human-level intelligence? OpenAI’s o3 electrifies quest, Nature, 14 gennaio 2025
  3. Dicastero per la Dottrina della fede, Dicastero per la cultura e l’educazione, “Antiqua et nova. Nota sul rapporto tra intelligenza artificiale e intelligenza umana”, gennaio 2025 

 

 

ultimo aggiornamento il 17 Aprile 2025

Share