Quando si parla di Google AI Overview, la prima cosa che viene in mente è la comodità di avere risposte pronte in cima ai risultati di ricerca. Eppure, dietro quella praticità si nasconde un problema che sta emergendo con forza: il sistema starebbe contribuendo a diffondere fake news su una scala potenzialmente senza precedenti nella storia recente. E non si tratta di un’opinione isolata, ma di quanto emerge da alcune indagini pubblicate in rete che stanno facendo discutere parecchio.
Il punto è semplice, almeno in apparenza. Google AI Overview viene percepito da molti come un successo impressionante, e su questo c’è poco da discutere: il sistema riesce a fornire risposte rapide e strutturate a milioni di utenti ogni giorno. Ma ecco il rovescio della medaglia. Secondo i dati circolati, il tasso di accuratezza si attesterebbe intorno al 91%. Detto così, sembra un risultato eccellente. E in effetti, da un punto di vista tecnico, lo è. Il problema nasce quando si considera la scala a cui opera il motore di ricerca. Quel 9% di errore, applicato al volume colossale di ricerche che passano attraverso Google ogni ora, si traduce in milioni di risposte errate che raggiungono gli utenti in pochissimo tempo. Risposte che, per il modo in cui vengono presentate, hanno tutta l’aria di essere affidabili e verificate.
Il nodo della scala: quando il 9% diventa un problema enorme
Ecco dove la faccenda si complica davvero. Non si sta parlando di un chatbot di nicchia usato da pochi appassionati di tecnologia. Google AI Overview è un sistema disponibile a livello mondiale, integrato direttamente nei risultati di ricerca che miliardi di persone consultano quotidianamente. Il meccanismo è subdolo, se ci si pensa: chi cerca qualcosa su Google tende a fidarsi della risposta che appare in evidenza, soprattutto quando è presentata con quel formato pulito e ordinato tipico delle risposte generate dall’intelligenza artificiale. Non tutti vanno a verificare, non tutti cliccano sulle fonti. E così le bufale si propagano con una velocità impressionante, in pochi secondi, senza che la maggior parte delle persone se ne renda conto.
Alcuni analisti sottolineano proprio questo aspetto: la combinazione tra un margine di errore apparentemente contenuto e un volume di utilizzo sterminato crea le condizioni perfette per una diffusione massiccia di informazioni false. È una questione di proporzioni, più che di percentuali. E il fatto che queste risposte errate vengano servite con l’autorevolezza del marchio Google rende tutto ancora più delicato.
La posizione di Google e i dubbi che restano
Da parte sua, Google contesta i dati emersi da queste indagini. L’azienda non accetta la lettura secondo cui AI Overview sarebbe una macchina di disinformazione e ha preso le distanze dalle cifre che circolano. Tuttavia, al momento, il dibattito resta aperto. Il sistema messo su dal motore di ricerca è ormai parte integrante dell’esperienza di navigazione per un numero enorme di persone, e la questione della qualità delle risposte generate non può essere liquidata con facilità.
Quello che emerge, in sostanza, è un paradosso: Google AI Overview funziona bene nella stragrande maggioranza dei casi, ma proprio la sua diffusione capillare fa sì che anche una piccola percentuale di errore si trasformi in un fenomeno dalle dimensioni preoccupanti. Le fake news non hanno bisogno di essere la maggioranza per fare danni: basta che siano abbastanza numerose e abbastanza credibili. E quando arrivano con il timbro di Google sopra, la credibilità è praticamente garantita agli occhi di chi legge.
