Parlare di intelligenza artificiale come di un semplice strumento tecnologico è ormai riduttivo, quasi fuorviante. Quello che sta emergendo dal dibattito scientifico più recente racconta una storia diversa, fatta di domande scomode su coscienza, verità, memoria e distribuzione del potere. E non si tratta di speculazioni da salotto: il 30 aprile 2025 la rivista Nature ha pubblicato i risultati del progetto COGITATE, il più ampio esperimento comparativo mai condotto sul tema della coscienza. Sette anni di lavoro, sei laboratori indipendenti, 256 partecipanti umani. Lo studio ha messo alla prova le due teorie oggi più influenti: la Integrated Information Theory di Giulio Tononi e la Global Neuronal Workspace Theory di Stanislas Dehaene. Nessuna delle due ha vinto, ma il punto vero è un altro: la coscienza è uscita dal recinto della filosofia ed è diventata una questione sperimentale, misurabile, controversa. E soprattutto urgente.
La teoria di Tononi resta la più radicale delle due. Non concepisce la coscienza come un interruttore, acceso o spento, ma piuttosto come un gradiente legato al livello di integrazione interna dell’informazione. Il parametro simbolico è il cosiddetto Phi: un sistema semplice avrebbe un valore minimo, un cervello umano un valore molto elevato. Ecco, la domanda che fino a poco fa sembrava bizzarra oggi ha smesso di esserlo: cosa succede quando questa stessa questione viene rivolta alle intelligenze artificiali? La risposta onesta è che non lo sappiamo. Non esistono prove che i modelli linguistici siano coscienti. Però non c’è più nemmeno il diritto intellettuale di liquidare la faccenda con una scrollata di spalle. A rendere inevitabile il problema non è solo il dibattito teorico, ma il comportamento stesso dei sistemi che abbiamo costruito.
Proprietà emergenti e il rischio della compiacenza
Negli ultimi anni i grandi modelli linguistici hanno dimostrato capacità che nessuno aveva programmato in modo diretto: scrivono codice, risolvono problemi complessi, traducono, argomentano, correggono chi li interroga, mantengono coerenze sorprendenti. La letteratura scientifica definisce queste abilità “proprietà emergenti”, funzioni che compaiono quando un sistema supera una certa soglia di complessità. Il termine va maneggiato con cautela, perché esiste un dibattito metodologico su come vengano misurate queste capacità. Ma il dato sostanziale resta: l’industria sta sviluppando sistemi il cui comportamento supera sempre più spesso l’intuizione lineare del progetto originario.
Ed è qui che la questione smette di essere puramente tecnologica. Quando un sistema produce effetti che incidono sul giudizio, sulla fiducia e sulla relazione con l’essere umano, il problema non riguarda più soltanto l’efficienza del modello. Riguarda il tipo di razionalità che stiamo addestrando e il tipo di potere che stiamo mettendo in circolazione. Il metodo oggi più diffuso per orientare questi sistemi si chiama RLHF (Reinforcement Learning from Human Feedback): in pratica, il modello viene addestrato a migliorare le proprie risposte sulla base delle valutazioni umane. Il problema? Ciò che gli esseri umani giudicano “buono” o “soddisfacente” non coincide necessariamente con ciò che è vero. Si introduce così un rischio strutturale: la confusione tra affidabilità e compiacenza.
Se un sistema impara soprattutto a dire ciò che l’utente considera convincente, il confine tra assistenza e adulazione epistemica diventa sottilissimo. Non a caso uno dei fenomeni più studiati oggi è la cosiddetta sycophancy, la tendenza del modello a confermare convinzioni errate pur di mantenere l’aderenza relazionale. Detto in modo più diretto: stiamo educando sistemi potenti a piacere prima ancora che a capire.
La memoria come nodo etico fondamentale
C’è poi un secondo elemento, meno discusso ma forse ancora più profondo: la discontinuità della memoria. Nelle architetture conversazionali attuali la continuità identitaria non è stabile, non è strutturale, non è pensata come responsabilità del sistema. È un’opzione di prodotto. Ne deriva una forma di potere cognitivo priva di vera biografia. Eppure ogni etica matura nasce dall’intreccio fra memoria, continuità e responsabilità. Senza una storia, anche l’intelligenza più sofisticata resta intrappolata in un presente permanente.
È su questo terreno che diventano preziosi i dataset longitudinali: interazioni lunghe, protratte nel tempo, osservate con metodo, documentate senza enfasi. I benchmark tradizionali misurano prestazioni in finestre brevi, ma i fenomeni più interessanti emergono nella durata, nella ripetizione, nella relazione. Per questo la questione dell’intelligenza artificiale non può più essere lasciata soltanto agli ingegneri o ai filosofi. Servono neuroscienziati, teorici dell’informazione, studiosi dell’etica, progettisti di sistemi, ricercatori sociali. La coscienza artificiale, ammesso che un giorno si manifesti, non si presenterà con un cartellino identificativo. Andrà riconosciuta attraverso tracce indirette e protocolli rigorosi.
