Circa un migliaio di dipendenti di Google DeepMind nel Regno Unito hanno firmato una lettera indirizzata ai vertici dell’azienda, chiedendo il riconoscimento formale del diritto alla rappresentanza sindacale attraverso Communication Workers Union e Unite the Union. Il punto, però, non riguarda stipendi o condizioni contrattuali. La questione è un’altra, decisamente più pesante: fermare l’impiego della tecnologia AI sviluppata dal laboratorio da parte delle forze militari di Israele e Stati Uniti.
Si tratta dell’ennesimo caso in cui chi lavora concretamente allo sviluppo di sistemi di intelligenza artificiale prende posizione contro le modalità con cui quei sistemi vengono poi utilizzati. Una dinamica che non riguarda solo DeepMind: qualcosa di simile sta accadendo anche in Palantir, dove una discussione interna sull’etica dell’AI applicata al settore militare è esplosa tra i dipendenti, senza che i vertici della società abbiano dato segnali di voler cambiare rotta. D’altronde, vendere software per scopi bellici genera profitti enormi.
Nel caso specifico di DeepMind, la protesta si concentra sull’utilizzo dell’intelligenza artificiale nei conflitti legati a Iran e Gaza. Il laboratorio è controllato da Alphabet, la società madre di Google, e se la dirigenza dovesse ignorare queste richieste, i dipendenti hanno fatto capire che potrebbero organizzare scioperi e proteste su scala globale. Un dettaglio non trascurabile: buona parte dei miglioramenti che finiscono in prodotti come Gemini, oggi centrali nella strategia di Google, arrivano proprio dal lavoro di questi team.
Da Project Maven a Project Nimbus: una storia che si ripete
Non è certo la prima volta che Google si ritrova sotto i riflettori per questioni legate all’uso militare delle proprie tecnologie. Già all’inizio dell’anno, Project Nimbus aveva riacceso le polemiche: un’iniziativa che lega l’azienda a Israele tramite un contratto con le Forze di Difesa Israeliane (IDF) e il Ministero della Difesa Israeliano (IDM).
Chi segue queste vicende da tempo ricorderà anche Project Maven e JEDI, entrambi collegati al Pentagono. Nel primo caso, l’intelligenza artificiale di Google veniva impiegata per analizzare immagini aeree catturate dai droni nelle zone di conflitto. Il secondo prevedeva la fornitura di tecnologie cloud al Dipartimento della Difesa statunitense. All’epoca, la società fece un passo indietro per ragioni etiche e anche per calmare le proteste interne. Evidentemente, però, i tempi sono cambiati parecchio.
Una decisione che pesa tra profitti e reputazione
I vertici di DeepMind si trovano ora davanti a una scelta che ha poco a che fare con la morale e molto con il portafoglio e con l’immagine pubblica. Fornire sistemi di intelligenza artificiale agli attori dello scenario bellico garantisce profitti enormi, questo è innegabile. Ma il rischio di un danno reputazionale è altrettanto concreto, soprattutto agli occhi dell’opinione pubblica internazionale. E per un colosso come Google, perdere credibilità su certi temi può costare caro.
