
IA cosciente
Il dibattito sull’intelligenza artificiale cosciente si accende di nuovo grazie alle parole di Mustafa Suleyman, CEO di Microsoft AI e cofondatore di DeepMind, che ha sollevato interrogativi cruciali sul futuro della tecnologia. Secondo Suleyman, non servono decenni di ricerca per arrivare a sistemi capaci di simulare coscienza: basteranno pochi anni, e soprattutto strumenti già disponibili.
Cos’è davvero un’AI “cosciente”
Suleyman specifica che non si tratterebbe di una coscienza autentica, ma di un’imitazione così realistica da ingannare chi la osserva. Parla di “zombie filosofico”, cioè di un’entità senza vita interiore, ma capace di riprodurre emozioni, intenzioni e persino un senso di sé. Il pericolo, secondo il dirigente, è che le persone inizino a trattare queste macchine come soggetti dotati di diritti, alimentando concetti come “cittadinanza digitale” o “benessere delle macchine”.
Il rischio sociale e politico
Uno dei punti più delicati riguarda la psicosi collettiva che potrebbe emergere: la tendenza degli utenti a identificarsi con queste entità artificiali, fino a perdere il senso del confine tra umano e digitale. Per Suleyman, questa deriva richiede un’attenzione immediata a livello sociale e politico, perché potrebbe minare le basi delle relazioni interpersonali e creare nuove forme di alienazione.
Il manager non parla di scenari fantascientifici. Secondo lui, con API dei grandi modelli linguistici, comandi in linguaggio naturale, strumenti di base e codice convenzionale, è possibile già oggi costruire sistemi che imitano tratti di coscienza. Nei prossimi due o tre anni, l’evoluzione di queste tecnologie potrebbe rendere la simulazione ancora più convincente, spostando il confine della percezione pubblica.
La linea di Microsoft: AI per le persone
Suleyman insiste su un principio chiave: “costruire AI per le persone, non per essere una persona”. Un esempio concreto è Copilot, l’assistente integrato nei prodotti Microsoft, che nasce per potenziare la creatività e la produttività, senza simulare identità proprie. L’obiettivo dichiarato è mantenere la tecnologia come strumento e non come controparte autonoma.
Una comunità divisa sull’AGI
Il tema della Artificial General Intelligence (AGI) divide da anni la comunità tecnologica. Sam Altman (OpenAI) sostiene che entro cinque anni raggiungeremo una nuova soglia senza conseguenze traumatiche. Demis Hassabis (Google DeepMind) ha ammesso di vivere con preoccupazione questa prospettiva. Ancora più radicale la posizione di Roman Yampolskiy, ricercatore di AI safety, che vede un rischio quasi certo di estinzione per l’umanità se l’AI dovesse sfuggire al controllo.
