X, l’ex Twitter, ha deciso di fare un passo che a prima vista sembra rivoluzionario: ha reso pubblico il codice sorgente che gestisce il feed degli utenti. Elon Musk ha parlato di un traguardo storico per la trasparenza delle piattaforme social, sottolineando come nessun altro network abbia mai aperto così le proprie logiche interne. La realtà, però, è meno semplice di quanto la dichiarazione possa far credere: i ricercatori che hanno analizzato il materiale pubblicato parlano di un’“illusione di apertura”. Il sorgente rilasciato sarebbe infatti incompleto, con parti cruciali tagliate o omesse, e non permette di comprendere a fondo come i post vengano effettivamente ordinati e mostrati.
X apre il codice del feed, ma la trasparenza promessa resta parziale
John Thickstun, docente alla Cornell University, è tra i più critici: secondo lui il codice dà soltanto l’impressione di essere accessibile, ma non consente verifiche affidabili o attività di auditing indipendente. Insomma, guardandolo dall’esterno sembra che tutto sia trasparente, ma in pratica le decisioni chiave dietro la visibilità dei contenuti restano nascoste. Questo ha alimentato subito un’ondata di thread su X dove utenti più o meno esperti tentano di interpretare il sorgente per suggerire strategie per aumentare la portata dei propri post: pubblicare video, rispondere ai commenti, restare coerenti con il proprio stile. Gli esperti avvertono, però, che queste indicazioni sono del tutto speculazioni: l’algoritmo attuale funziona principalmente grazie all’intelligenza artificiale e non è riducibile a semplici regole numeriche.
Oggi il ranking dei post si basa su un modello di linguaggio simile a Grok, che stima la probabilità che un utente metta like o condivida un contenuto, invece di contare direttamente le interazioni reali. Questo approccio rende il sistema intrinsecamente opaco: anche chi ha sviluppato il modello difficilmente può spiegare tutte le scelte che compie. Il sorgente rilasciato manca inoltre di dati fondamentali, come il peso assegnato a commenti, retweet o like, e soprattutto i dati di addestramento del modello, che sono essenziali per capire eventuali bias.
Un feed sempre più guidato dall’intelligenza artificiale
La mossa di X, quindi, rischia di essere più simbolica che sostanziale. Rende il codice accessibile agli occhi di tutti, ma senza fornire strumenti concreti per valutare la correttezza o l’equità delle decisioni automatiche. In pratica, trasparenza apparente sì, ma vera comprensione ancora lontana. Gli sviluppatori e i ricercatori continueranno a guardare il codice, cercando di capire come decifrare un feed sempre più guidato dall’intelligenza artificiale, dove le interazioni reali contano meno di quanto la AI preveda che conteranno.
Il dibattito resta aperto: siamo davanti a un passo avanti nella comunicazione con gli utenti, oppure a un’operazione di marketing che lascia intatto il cuore oscuro del feed? La risposta probabilmente richiederà ancora tempo e studi approfonditi.
