La corsa verso l’intelligenza artificiale generale (AGI) è diventata una specie di mantra nel mondo tech, eppure c’è chi mette in discussione l’intera premessa su cui si basa. I modelli linguistici, quelli su cui si stanno investendo cifre astronomiche e risorse energetiche enormi, potrebbero non avvicinarsi mai davvero a qualcosa che somigli all’intelligenza umana. Non è una provocazione gratuita, ma un punto sollevato dalla neuroscienza, che ha qualcosa di piuttosto scomodo da dire a chi sogna macchine pensanti basate sul linguaggio.
Il pensiero umano non funziona come un chatbot
Il nodo della questione è tanto semplice quanto radicale: il pensiero umano non è linguaggio. Può sembrare controintuitivo, perché passiamo le giornate a parlare, scrivere, leggere. Il linguaggio è ovunque nella vita quotidiana. Ma la neuroscienza ha dimostrato che il cervello umano pensa in modi che vanno molto oltre le parole. Le aree cerebrali dedicate al linguaggio si attivano quando si parla o si ascolta, certo, ma il ragionamento profondo, la pianificazione, la creatività, l’intuizione… tutto questo coinvolge reti neurali biologiche che col linguaggio hanno poco a che fare.
E allora cosa succede quando si costruisce un sistema che è, nella sua essenza, una macchina che prevede la parola successiva in una frase? I grandi modelli linguistici fanno esattamente questo. Lo fanno in maniera impressionante, con una fluidità che può ingannare chiunque. Ma imitare la forma del linguaggio non equivale a possederne il contenuto. È un po’ come guardare un attore che interpreta un medico: può essere convincentissimo, ma non gli affideremmo un intervento chirurgico.
Investimenti miliardari su una direzione sbagliata?
Parliamo di centinaia di miliardi di euro investiti nello sviluppo di questi sistemi. A livello globale, le Big Tech stanno costruendo data center sempre più grandi, consumando quantità impressionanti di energia e generando milioni di tonnellate di emissioni di anidride carbonica. Il tutto con la promessa, più o meno esplicita, che prima o poi questi modelli linguistici raggiungeranno una forma di intelligenza paragonabile a quella umana. L’AGI, appunto.
Ma se la premessa di partenza è sbagliata, e cioè se il linguaggio da solo non può generare intelligenza, allora nessun data center, per quanto grande e potente, cambierà questa realtà. Non è una questione di scala. Non basta aggiungere più parametri, più dati, più potenza di calcolo. Il problema è strutturale, è nel fondamento stesso dell’approccio.
Questo non significa che i modelli linguistici siano inutili, attenzione. Sono strumenti formidabili per tantissime applicazioni pratiche. Ma confondere una forma molto sofisticata di imitazione con la cosa reale potrebbe rivelarsi un errore costoso. Non solo in termini economici, ma anche ambientali e strategici. Il rischio è quello di inseguire una chimera, investendo risorse colossali in una direzione che, per sua natura, non può portare dove si spera.
Quello che la neuroscienza ci sta dicendo
La scienza del cervello, insomma, pone una domanda scomoda a tutta l’industria dell’intelligenza artificiale. Se il pensiero non è riducibile al linguaggio, allora i modelli linguistici non diventeranno mai davvero intelligenti. Potranno diventare più fluidi, più precisi, più utili come assistenti. Ma l’AGI costruita solo sul linguaggio resta, almeno secondo le evidenze neuroscientifiche attuali, una contraddizione nei termini. Stiamo confondendo l’eloquenza con la comprensione, e nessun aggiornamento software sembra in grado di colmare quel divario.
