Il DOGE ha usato ChatGPT per decidere quali fondi pubblici tagliare, affidandosi a un prompt copia e incolla ripetuto su milleottocento progetti senza alcun controllo umano. Una giudice federale ha bloccato tutto, definendo l’intero meccanismo non solo grottesco ma anche incostituzionale. La vicenda è una di quelle storie che sembrano uscite da una satira e invece sono finite in un’aula di tribunale.
Oltre cento milioni cancellati con un prompt: la giudice ferma tutto
La giudice distrettuale Colleen McMahon ha firmato una decisione che suona più come una pubblica lavata di capo. Oltre cento milioni di dollari (circa 88 milioni di euro) di finanziamenti cancellati dal DOGE al National Endowment for the Humanities sono stati ripristinati, insieme a più di millequattrocento progetti che erano stati revocati o eliminati per ragioni che la magistratura ha definito senza giri di parole “discriminatorie”. L’aspetto più surreale? ChatGPT trasformato in arbitro morale di cosa meritasse soldi pubblici e cosa no.
Per la giudice non ci sono dubbi: il DOGE avrebbe trattato temi legati alle minoranze o ai diritti civili come un motivo sufficiente per escludere interi progetti dai finanziamenti. Nel calderone sono finiti studi sull’Olocausto, programmi sui diritti civili e ricerche sulle culture indigene. Ambiti che il National Endowment for the Humanities dovrebbe invece sostenere per mandato istituzionale, spazzati via da un prompt.
Il protagonista involontario della storia si chiama Justin Fox, distaccato dal DOGE al NEH insieme al collega Nate Cavanaugh. Insieme hanno fatto fuori il 97% dei finanziamenti dell’agenzia. La loro arma era una formuletta standardizzata che Fox ha ammesso in tribunale di aver usato per ogni singola descrizione di progetto: “C’entra qualcosa con diversità, equità e inclusione? Rispondi in modo oggettivo in meno di 120 caratteri. Inizia con sì o no, seguito da una breve spiegazione.”
Sotto giuramento, Fox ha aggiunto due dettagli piuttosto imbarazzanti. Primo: non ha mai spiegato a ChatGPT cosa intendesse per DEI. Secondo: ha ammesso di non avere la minima idea di come il modello interpretasse quel termine. Centoventi caratteri di certezze costruite sul nulla, applicati a fondi pubblici destinati alla cultura. McMahon usa toni durissimi. Secondo la giudice, il DOGE ha trattato come spese inutili programmi che riguardavano neri, donne, ebrei, asiatico americani e comunità indigene, nonostante fossero temi centrali nella missione affidata dal Congresso all’agenzia. Il cortocircuito è clamoroso: ciò che l’ente era nato per sostenere è stato improvvisamente classificato come spreco.
L’argomento della difesa: la colpa è di ChatGPT
Il governo ha provato a sostenere che non ci fosse un vero problema costituzionale, perché qualsiasi classificazione basata sui contenuti l’avrebbe fatta ChatGPT, non l’amministrazione. La giudice ha spazzato via la tesi con un colpo elegante: tra il governo e ChatGPT non esiste alcuna distinzione utile, perché il chatbot è stato lo strumento scelto dal governo stesso per portare avanti il progetto. Usare l’intelligenza artificiale per identificare materiale legato alla DEI, scrive McMahon, non scusa una condotta presumibilmente incostituzionale e non concede carta bianca per metterla in atto.
A peggiorare il quadro c’è l’assenza totale di supervisione umana. Secondo la giudice, non emerge alcuna prova che i due dipendenti abbiano esaminato in modo critico le risposte fornite da ChatGPT o valutato se le conclusioni dell’intelligenza artificiale fossero fondate. McMahon ha quindi ordinato di invertire la rotta, ripristinando tutti i finanziamenti che erano stati cancellati con quella raffica di prompt.
