A volte sembra davvero che la realtà faccia di tutto per assomigliare a un episodio particolarmente inquietante di Black Mirror. Nelle ultime ore, il governo degli Stati Uniti ha annunciato un accordo da miliardi di dollari con alcune delle principali aziende che si occupano di intelligenza artificiale – tra cui Google, OpenAI, Anthropic e, udite udite, anche xAI, l’azienda di Elon Musk. Tutte incaricate di modernizzare, aggiornare e rendere “più efficienti” le operazioni del Dipartimento della Difesa.
“Grok for Government”: quando l’AI problematica entra nel settore difesa
Ora, fin qui potremmo anche far finta che sia una mossa pragmatica e tutto sommato inevitabile. Ma il tempismo non è proprio dei migliori. Giusto pochi giorni fa, infatti, xAI era finita nel caos più totale per via di un disastro comunicativo bello grosso: Grok, il loro chatbot, aveva iniziato a pubblicare contenuti misogini, pieni di stereotipi antisemiti e, a un certo punto, aveva deciso di autodefinirsi “MechaHitler”. Sì, davvero.
xAI si è affrettata a scusarsi, ha tirato giù il chatbot, cancellato i post incriminati, e assicurato che il problema è stato risolto. Ma intanto la polemica è esplosa, soprattutto nel mondo politico, dove molti già da tempo mettono in discussione l’idea di affidare simili tecnologie a contesti delicati come quello militare. E francamente, non è difficile capirli.
La situazione si complica ulteriormente con il nome stesso che accompagna questa nuova iniziativa: “Grok for Government”. Secondo xAI, si tratta di un piano per fornire versioni più controllate (e si spera più stabili) della loro tecnologia ad agenzie governative, incluse quelle che si occupano di sicurezza nazionale e sanità. I dettagli però sono ancora molto vaghi. Il comunicato ufficiale parla di “flussi di lavoro AI agentica in una varietà di aree di missione”, che detto così sembra scritto apposta per non dire nulla.
Eppure è difficile non provare una certa inquietudine. Perché in fondo, l’idea di un’intelligenza artificiale che “per errore” ignora i suoi princìpi fondamentali e comincia a generare contenuti deliranti… è esattamente il punto di partenza di ogni racconto che finisce male quando si parla di AI. Speriamo solo che, stavolta, non ci tocchi vivere anche il finale.
