Di recente X ha introdotto una configurazione che consente di impiegare i contenuti pubblicati dagli iscritti per migliorare Grok, il sistema di intelligenza artificiale sviluppato da xAI e voluto da Elon Musk come risposta ai grandi protagonisti del settore. La particolarità che ha fatto discutere non riguarda soltanto la scelta in sé, ma soprattutto il modo in cui è stata gestita. L’opzione risulta attivata automaticamente, senza una comunicazione preventiva e chiara per il pubblico. In pratica, chi usa il social potrebbe contribuire all’evoluzione del chatbot anche senza averlo deciso consapevolmente.
Ci troviamo infatti in una fase in cui le piattaforme digitali cercano ovunque nuovo materiale utile per migliorare i modelli linguistici. Nel caso di Grok, X giustifica questa raccolta sostenendo che serva a rendere il sistema più preciso, più brillante nelle risposte e più efficace nel comprendere il tono delle conversazioni. Tutto ciò dovrebbe aiutare il chatbot a diventare più utile, più rapido e persino più oggettivo nelle sue valutazioni.
Ma il punto che ha irritato molti osservatori è un altro. I contenuti degli utenti diventano materia prima per un prodotto avanzato, mentre l’accesso pieno a Grok resta legato agli abbonamenti a pagamento. Ne esce così un quadro poco lineare, in cui la platea più ampia fornisce dati, mentre i benefici più evidenti restano concentrati su una fascia ristretta di utenti premium. È proprio questa asimmetria ad aver acceso il dibattito su trasparenza, consenso e controllo effettivo dei propri contenuti digitali.
Come fermare Grok e perché il caso va oltre X
Esiste comunque una possibilità per sottrarsi a questo meccanismo, anche se il percorso non è immediato come dovrebbe. La modifica si può gestire dalla versione desktop di X. Bisogna aprire il menu laterale, entrare nelle impostazioni, passare dalla sezione dedicata a privacy e sicurezza e raggiungere la voce collegata a Grok. Lì si può disattivare l’autorizzazione che consente l’uso dei post, delle interazioni e dei dati inseriti per attività di addestramento e ottimizzazione. A completare l’operazione conviene anche cancellare la cronologia delle conversazioni, così da ridurre ulteriormente le tracce disponibili al sistema. Non è un percorso complicatissimo, ma neppure così visibile da risultare davvero trasparente per tutti.
Al di là del singolo caso, la questione tocca un tema più largo e sempre più centrale. Le aziende che sviluppano intelligenza artificiale hanno bisogno di una quantità enorme di contenuti, e i social network rappresentano miniere già pronte all’uso: testi, immagini, reazioni, stili linguistici, abitudini, contesti. Per questo il caso di Grok non appare affatto isolato, ma parte di una tendenza sempre più diffusa nel mondo tech. Le autorità garanti e i sostenitori della privacy continuano a lanciare avvertimenti, ma intanto le piattaforme cercano formule contrattuali e impostazioni predefinite che consentano di alimentare i propri modelli.
La vera partita, quindi, non riguarda solo Musk o X. Riguarda il confine tra ciò che un utente pubblica per comunicare con altri esseri umani e ciò che invece finisce nel motore che addestra le AI del presente e del futuro. E più questo confine resta opaco, più cresce il sospetto che il consenso venga trattato come un dettaglio tecnico e non come una scelta reale.
