Quella tra salute e intelligenza artificiale resta una relazione complicata, e l’ultima mossa di Google lo conferma in pieno. Senza troppo clamore, Mountain View ha eliminato una funzione che sfruttava l’IA per fornire consigli medici pescati dalle esperienze di altri utenti online. E la cosa curiosa è che, a quanto pare, stavolta il problema non erano le famose allucinazioni dell’intelligenza artificiale. O almeno, non ufficialmente.
La funzione si chiamava What People Suggest ed era stata lanciata a marzo 2025 negli Stati Uniti, inizialmente solo su dispositivi mobili. Il meccanismo era questo: il sistema raccoglieva e sintetizzava discussioni trovate su piattaforme come Reddit, Quora e X.com, tutte fonti dove già oggi milioni di persone cercano informazioni su sintomi, farmaci e rimedi vari. Con più di qualche mal di pancia da parte dei medici, va detto. L’idea era mostrare esperienze condivise da chi conviveva con condizioni simili a quelle cercate dall’utente. Google aveva fatto l’esempio di chi soffre di artrite e cerca modi per fare esercizio fisico senza peggiorare i sintomi: in quel caso, lo strumento proponeva suggerimenti estratti da conversazioni reali di altre persone nella stessa situazione.
Perché Google ha fatto marcia indietro
Secondo l’azienda, la decisione di rimuovere What People Suggest non sarebbe legata a problemi di sicurezza o di qualità dei risultati. La spiegazione ufficiale parla di una strategia più ampia di semplificazione della pagina dei risultati di ricerca. Un portavoce ha dichiarato che la funzione è stata eliminata già mesi fa, anche se la notizia è venuta fuori solo adesso. Dettaglio non da poco, perché racconta quanto poco questa funzione fosse effettivamente notata o percepita come centrale dagli utenti.
Google comunque non ha abbandonato del tutto l’idea di fornire informazioni sanitarie tramite intelligenza artificiale. Per chi cerca query legate alla salute, il motore di ricerca continua a proporre risposte generate dallo strumento AI Overview, che a sua volta attinge spesso da blog, siti specializzati e, sì, anche da post presi su Reddit e piattaforme simili. Il confine tra consigli medici affidabili e suggerimenti amatoriali resta quindi piuttosto sottile.
Il nodo della responsabilità sui consigli sanitari generati dall’IA
Tutta la vicenda riporta al centro una questione che non si risolverà tanto facilmente. Aggregare esperienze personali su temi delicati come la salute, per quanto utile possa sembrare sulla carta, comporta rischi enormi. Quello che funziona per una persona potrebbe essere dannoso per un’altra, e nessun algoritmo, per quanto sofisticato, può sostituire una valutazione medica professionale. Google stessa, nel presentare What People Suggest, aveva sottolineato il potenziale dell’IA nel migliorare l’accesso alle informazioni sanitarie e nel favorire decisioni più consapevoli. Eppure, dopo appena un anno, la funzione è sparita.
E il fatto che la rimozione sia avvenuta in silenzio, senza annunci, suggerisce che forse Mountain View non era poi così convinta del risultato ottenuto. Oggi chi cerca informazioni mediche su Google trova comunque risposte generate dall’intelligenza artificiale, ma senza quello strato aggiuntivo di consigli pescati direttamente dalle esperienze degli utenti comuni.
