Nuova sconfitta giudiziaria per il DOGE, il dipartimento voluto da Elon Musk per tagliare la spesa pubblica americana. Una corte federale ha dichiarato incostituzionale la cancellazione di oltre 90 milioni di euro in finanziamenti pubblici destinati alle discipline umanistiche. Una sentenza pesante, che arriva dopo mesi di polemiche sulle modalità operative di quello che ufficialmente si chiama Department of Government Efficiency. Sin dall’inizio, i metodi adottati dal DOGE erano apparsi quantomeno discutibili: imprecisi, sommari, grossolani nella scelta di cosa eliminare e cosa no. E i risultati? Trascurabili, quando non addirittura controproducenti.
La giudice federale Colleen McMahon, del tribunale distrettuale di Manhattan, ha accolto le istanze di diverse organizzazioni culturali e accademiche, tra cui la Authors Guild. Nella sentenza si legge che il governo ha violato il Primo e il Quinto Emendamento della Costituzione americana. Ed è un punto che pesa parecchio, perché non si tratta di una questione tecnica o contabile. Si parla di diritti fondamentali.
Al centro di tutto ci sono oltre 1.400 sovvenzioni cancellate dal National Endowment for the Humanities, molte delle quali erano state assegnate durante l’amministrazione Biden. La posizione del governo era chiara: quei tagli rientravano nella strategia della Casa Bianca per eliminare i programmi legati a diversità, equità e inclusione, le cosiddette politiche DEI, che l’attuale amministrazione vede come fumo negli occhi. E naturalmente servivano anche a ridurre la spesa del governo federale, che è poi la ragione d’essere del DOGE.
L’intelligenza artificiale usata per decidere cosa tagliare
Ecco dove la faccenda diventa quasi surreale. Durante il processo è emerso che il DOGE ha fatto ricorso all’intelligenza artificiale per stabilire se una sovvenzione fosse legata a temi DEI oppure no. Fin qui, volendo, ci potrebbe anche stare. Il problema vero, ed è un problema che si ripresenta puntualmente quando si parla di IA applicata a decisioni delicate, è che nessuno si è preso la briga di verificare cosa l’algoritmo avesse effettivamente prodotto. Nessun controllo umano. Nessuna revisione. Zero.
Il risultato è stato prevedibile. Errori di classificazione clamorosi, che in un contesto giudiziario sono diventati materiale piuttosto imbarazzante. L’esempio più eclatante? Un’antologia sulla narrativa ebraica sovietica del periodo successivo all’Olocausto è stata etichettata come programma DEI e quindi privata del finanziamento. Una svista che racconta molto su come il DOGE abbia affrontato l’intera operazione: con un approccio automatizzato e privo di qualsiasi sensibilità verso i contenuti reali dei progetti colpiti.
La sentenza della giudice McMahon rappresenta un altro colpo significativo per il progetto di Elon Musk. Il DOGE continua a raccogliere sconfitte legali che ne minano la credibilità e l’efficacia, proprio su quel terreno della riduzione della spesa pubblica che doveva essere il suo fiore all’occhiello. I tagli alle sovvenzioni per le discipline umanistiche, almeno per ora, restano bloccati.
