Il processo Musk contro OpenAI ha vissuto uno dei momenti più significativi con la deposizione di Stuart Russell, professore di informatica a Berkeley e unico esperto di intelligenza artificiale chiamato dalla difesa di Elon Musk. Studioso di AI da decenni e tra i firmatari della famosa lettera che chiedeva una pausa di sei mesi nella ricerca sull’intelligenza artificiale, Russell è stato chiamato a testimoniare con un obiettivo preciso: dimostrare alla giuria che i pericoli dell’AGI sono reali e abbastanza seri da giustificare le preoccupazioni di Musk riguardo alla trasformazione di OpenAI in un’entità a scopo di lucro.
C’è un dettaglio che non passa inosservato, però. Lo stesso Musk aveva firmato quella lettera sulla pausa nella ricerca AI, proprio mentre stava lanciando xAI, il proprio laboratorio di intelligenza artificiale. A scopo di lucro, va detto.
La testimonianza di Russell e i rischi della corsa all’AGI
Davanti alla giuria e alla giudice Gonzalez Rogers, Russell ha spiegato che lo sviluppo dell’intelligenza artificiale porta con sé una serie di rischi che vanno dalla sicurezza informatica ai problemi nel controllo dei sistemi, fino a una competizione che tende a concentrare un potere enorme nelle mani di pochissimi attori. Il punto centrale della sua testimonianza riguarda proprio lo scontro tra la corsa al progresso e le garanzie di sicurezza.
Interessante notare che in aula Russell non ha potuto toccare gli scenari più estremi, quelli legati a possibili minacce per l’esistenza stessa dell’umanità. Gli avvocati di OpenAI hanno chiesto e ottenuto dalla giudice di limitare il perimetro su cui il professore poteva testimoniare. Nonostante questo, Russell è da tempo uno dei critici più vocali della competizione tra le aziende più avanzate nello sviluppo dell’intelligenza artificiale. La sua posizione è chiara: la pressione a essere i primi rischia di far passare la sicurezza in secondo piano, e per questo serve che i governi introducano regole molto più rigorose.
Nel controinterrogatorio, gli avvocati di OpenAI hanno poi stabilito un punto che per loro era evidentemente importante: Russell non stava valutando direttamente la struttura societaria di OpenAI, né le sue policy specifiche sulla sicurezza. Un modo per ridimensionare la portata della testimonianza, insomma.
Il nodo irrisolto tra missione originale e realtà economica
Tutto il processo Musk contro OpenAI ruota attorno a una contraddizione che ormai è diventata impossibile da ignorare. I fondatori di OpenAI partivano da una preoccupazione legittima: che un’intelligenza artificiale molto avanzata finisse sotto il controllo di una sola azienda, con un potere sproporzionato. La soluzione, almeno nelle intenzioni iniziali, era svilupparla in modo controllato e all’interno di una struttura senza fini di lucro.
Poi è arrivata la realtà dei numeri. Costruire sistemi di intelligenza artificiale sempre più potenti richiede risorse di calcolo enormi, e quindi moltissimi soldi. Una struttura no profit non era più in grado di sostenere quei costi. Così sono arrivati gli investitori privati, e con loro la natura stessa dell’organizzazione ha cominciato a cambiare. Il capitale porta aspettative, le aspettative generano pressione a crescere in fretta, e OpenAI si è ritrovata dentro la stessa identica corsa che diceva di voler evitare.
Quello che rende tutto ancora più complicato è che sia Musk che OpenAI chiedono al tribunale di prendere sul serio una parte degli argomenti, scartando però le parti meno utili alla propria tesi legale. Una situazione in cui nessuno dei due contendenti sembra avere le mani completamente pulite.
