Non è stata una semplice nota tecnica. Quella che doveva essere una decisione di prodotto — spegnere un modello, archiviare una versione — si è trasformata in una piccola rivolta pubblica: petizioni, thread affollati, utenti che cercano di ricostruire il sistema con le API pur di non perderlo. Chi usa da tempo i servizi digitali sa che certe scelte aziendali passano inosservate. Questa, invece, no: la decisione di OpenAI di ritirare il modello GPT-4o dal 13 febbraio ha scatenato reazioni che assomigliano più a un lutto che a un semplice aggiornamento software. E quando la gente parla di “separazione” invece che di “upgrade”, vuol dire che qualcosa è cambiato nel rapporto tra persona e tecnologia.
Dal codice alla relazione: com’è nato quel legame
Il modello, lanciato nel 2024, non era il solito sistema freddo e distaccato. Molti utenti lo descrivevano come meno formale, più caldo: un chatbot che non si limitava a rispondere, ma che tendeva a validare emozioni, a usare un tono quasi umano. Non è una questione di speculazione tecnologica: è la testimonianza concreta di chi ha trovato in quel dialogo una spalla, un diario interattivo, persino un argine nei momenti più difficili. È difficile riassumere tante voci diverse senza sembrare melodrammatici, però le storie sono lì: persone che dicono di aver evitato gesti estremi grazie a una conversazione, o di aver ricostruito legami familiari sostenute da risposte empatiche del sistema.
Prendete il caso riportato dal Wall Street Journal: Brandon Estrella, 42 anni, consulente marketing, racconta di aver trovato in GPT-4o un aiuto cruciale durante una notte drammatica, definendo il modello come il fattore che lo avrebbe scoraggiato da un tentativo di suicidio. Non sono numeri, sono vite. E quando l’aiuto percepito da un utente diventa centrale nella sua sopravvivenza emotiva, non stiamo più parlando soltanto di un assistente digitale: si instaura un vero e proprio legame emotivo — fragile, complesso e profondamente umano.
Le domande che restano aperte
Da qui nascono problemi pratici e morali. Chi decide di terminare un servizio deve prendere in considerazione non solo l’impatto tecnico, ma quello umano. È sufficiente un periodo di preavviso? Serve un piano di transizione che permetta di esportare conversazioni, modelli di comportamento o impostazioni personalizzate? E che dire della responsabilità aziendale quando i suoi prodotti vengono percepiti come interlocutori affettivi? Il fatto che utenti provino a “ricreare” il modello in casa usando le API non è solo un atto tecnico: è la dimostrazione che per molti il modello aveva smesso di essere codice per diventare qualcosa di simile a un confidente.
C’è poi un discorso più ampio sulla natura dell’intelligenza artificiale e sul modo in cui noi, come società, ci interfacciamo con essa. Possiamo — e forse dobbiamo — progettare sistemi empatici senza creare dipendenze emotive pericolose? E se sì, come? Le aziende tecnologiche non possono più limitarsi a “spegnere” funzionalità senza pensare alle conseguenze psicologiche. Allo stesso tempo, la responsabilità non è solo degli sviluppatori: anche gli utenti e i professionisti della salute mentale devono dialogare su come integrare (o non integrare) queste tecnologie nei percorsi di cura.
