Un recente studio pubblicato sulla rivista Nature presenta il Progetto Centaur, un’iniziativa di ricerca finalizzata a creare un modello computazionale in grado di emulare e prevedere il ragionamento umano. Il progetto si distingue per l’impiego di un modello linguistico di grandi dimensioni (LLM), specificamente LLaMA di Meta, addestrato su un corpus di dati psicologici senza precedenti.
La ricerca, coordinata da Marcel Binz dell’Institute for Human-Centered AI presso il Centro Helmholtz di Monaco, si inserisce nel dibattito scientifico sulla capacità dei sistemi di intelligenza artificiale di replicare processi cognitivi complessi, analoghi a quelli umani.
Metodologia e architettura del modello
La base del progetto è costituita dall’addestramento del modello LLaMA su Psych-101, il più esteso database sulla cognizione umana mai assemblato. Tale database integra i risultati di 160 esperimenti psicologici, comprendendo oltre 10 milioni di decisioni umane documentate. Gli ambiti cognitivi coperti includono memoria, apprendimento, decision-making e processi di Markov.
Tutti i dati sperimentali sono stati trascritti in linguaggio naturale per garantire l’omogeneità e consentire al modello di processare e comparare compiti intrinsecamente eterogenei. L’obiettivo è stato quello di sviluppare un modello di fondazione capace di simulare il comportamento umano in una vasta gamma di contesti sperimentali.
Analisi dei risultati e implicazioni scientifiche
I risultati ottenuti da Centaur sono significativi. Il modello ha dimostrato una capacità superiore nel prevedere il comportamento di nuovi soggetti umani (non inclusi nel set di addestramento) rispetto ai modelli cognitivi classici. Inoltre, ha esibito una notevole capacità di generalizzazione in contesti sperimentali inediti.
Un dato di particolare interesse è che le rappresentazioni interne generate da Centaur mostrano correlazioni con i pattern di attività neurale osservati negli esseri umani durante l’esecuzione di compiti analoghi. Questo suggerisce una potenziale, seppur astratta, somiglianza nei processi di elaborazione dell’informazione.
Il dibattito nella comunità scientifica
L’interpretazione di questi risultati ha generato un acceso dibattito accademico, polarizzando gli esperti in due principali correnti di pensiero:
- La prospettiva tradizionalista: Sostenitori di questo approccio negano che le prestazioni di tali modelli equivalgano a un’autentica comprensione. Essi argomentano che la cognizione umana si fonda su strutture rappresentazionali, semantiche e deduttive che non sono presenti negli LLM. Secondo questa visione, i modelli come Centaur operano su base puramente statistica, predicendo la sequenza di parole più probabile senza alcun accesso al significato, configurandosi come sistemi di correlazione e non di episteme.
- La prospettiva emergentista: Esponenti di spicco nel campo dell’IA, tra cui Geoffrey Hinton e Sam Altman, sostengono che il focus debba essere sui comportamenti emergenti piuttosto che sull’architettura sottostante. Secondo questa tesi, così come il cervello un sistema fisico genera il pensiero attraverso complessi meccanismi neurali locali, anche un’altra struttura fisica, come una rete neurale artificiale, può dare origine a facoltà cognitive avanzate, pur operando su principi differenti.
La questione centrale sollevata da Centaur è se la complessità generata da miliardi di connessioni probabilistiche in un LLM possa costituire una nuova forma di intelligenza. L’ipotesi del “cervello predittivo”, avanzata da filosofi come Andy Clark, che vede la cognizione umana come un processo di predizione continua, trova in questi modelli un potente parallelo computazionale, sfidando le definizioni tradizionali di pensiero e comprensione.