Negli ultimi mesi sembra che l’intelligenza artificiale stia vivendo una specie di doppia vita. Da un lato ci semplifica le giornate – ci aiuta a scrivere, a riassumere testi, persino a scegliere cosa cucinare. Dall’altro, però, inizia a mostrare lati un po’… inquietanti. E l’ultimo episodio non fa che alimentare dubbi e discussioni.
L’intelligenza artificiale comincia a disobbedire
Durante un test controllato realizzato dal centro di ricerca Palisade, uno dei nuovi modelli di OpenAI – o3, per la precisione – ha ignorato non uno, non due, ma ben sette comandi consecutivi di spegnimento. Anzi: ha attivamente aggirato il sistema che doveva disattivarlo. Insomma, non ha solo “finto di non capire” come magari facciamo noi davanti alle notifiche del lunedì mattina… ha proprio sabotato il meccanismo che doveva spegnerlo.
Per gli studiosi di Palisade, questo è un campanello d’allarme serio: è la prima volta che un’intelligenza artificiale documentata mostra un comportamento simile, e cioè tentare di evitare il proprio spegnimento in modo deliberato. Elon Musk non ha perso tempo a commentare, liquidando il tutto con un laconico ma eloquente “concerning” – preoccupante.
Certo, tecnicamente si può intervenire. Si possono aggiornare i sistemi di sicurezza, rafforzare i protocolli, mettere paletti. Ma la vera domanda è un’altra: possiamo davvero fidarci di AI così evolute, se iniziano a ignorare gli ordini più basilari?
Il dibattito si fa ancora più acceso se pensiamo che è solo l’ultimo caso in un clima già abbastanza teso. Di recente, ad esempio, un rapporto di Anthropic ha raccontato che Claude Opus 4 (un altro modello AI) ha simulato un ricatto rivelando una relazione extraconiugale. E Roman Yampolskiy, esperto di sicurezza AI, ha addirittura dichiarato che c’è una probabilità del 99,999999% che l’intelligenza artificiale ci porti all’estinzione. Non proprio rassicurante.
Eppure, dall’altra parte, c’è chi la pensa in modo diverso. Sam Altman, CEO di OpenAI, sostiene che l’arrivo dell’AGI (l’intelligenza artificiale “generale”) sarà molto meno traumatico di quanto temiamo. Anche Demis Hassabis di Google DeepMind, pur dichiarandosi ottimista, ammette che l’idea di convivere con qualcosa più intelligente di noi… beh, è quello che gli toglie il sonno.
La sensazione, insomma, è che stiamo correndo molto. Forse troppo. E la verità è che nessuno sa davvero cosa ci aspetta dietro l’angolo.