La promessa di riservatezza che molti associano agli assistenti virtuali è stata infranta. Un’inchiesta ha rivelato oltre 370.000 conversazioni apparse online sul sito ufficiale di Grok. Quei dialoghi, completi di documenti caricati, sono stati indicizzati dai motori di ricerca. Foto, fogli di calcolo e file personali sono divenuti reperibili a chiunque. Una situazione che spaventa: chi avrebbe mai immaginato che un pulsante di condivisione potesse trasformarsi in una finestra spalancata sul web? Alcuni alzerebbero forse la mano forse. L’utente crede di inviare un link privato a pochi conoscenti, ma in realtà, quel collegamento diventa pubblico, privo di avvisi chiari e immediati.
La clausola dei Termini di servizio conferma il diritto irrevocabile e mondiale di xAI a utilizzare e pubblicare contenuti caricati. Chi legge fino in fondo quelle righe legali? Quanti sono davvero consapevoli di ciò che accade ai propri dati? Pochi giorni prima, migliaia di chat con altri assistenti erano state scovate su Archive.org. Lo schema si ripete: conversazioni personali trasformate in materiale accessibile senza barriere. Secondo esperti, l’unico principio sicuro resta non condividere informazioni sensibili con i chatbot, che sia Grok o altro. Niente credenziali, niente dettagli privati, insomma le basi della sicurezza. Non si può escludere che ciò che viene digitato finisca davanti agli occhi di sconosciuti, quindi cautela. La direttrice della Mozilla Foundation parla di sistemi incapaci di avvisare chiaramente sugli effettivi rischi. Quali conseguenze si possono immaginare in caso di leggerezza o ingenuità?
Credibilità e mercato in crisi: Grok ha anche altri problemi a cui pensare
Oltre alla questione privacy, Grok deve fronteggiare un problema commerciale. I dati mostrano una quota minima, appena 0,6%, contro oltre il 60% di ChatGPT. Anche Microsoft Copilot e Google Gemini si piazzano nettamente più in alto. Un distacco enorme, aggravato da un incidente che mina ulteriormente la fiducia. Può un servizio già fragile sopravvivere a una tale esposizione? Secondo osservatori, il tema della fiducia digitale non è secondario. Le aziende dovrebbero trattare gli avvisi sulla pubblicità dei dati con la stessa serietà riservata agli errori dell’AI. Servirebbe un cartello di pericolo digitale che ricordi agli utenti come nulla resti davvero privato. Senza trasparenza, l’intero rapporto tra persona e tecnologia rischia di sgretolarsi.
