Il nuovo Google Home con Gemini AI è stato presentato come un’evoluzione intelligente dell’assistente domestico, capace di comprendere richieste complesse e gestire la casa con maggiore autonomia. Tuttavia, una delle sue funzioni più avanzate, chiamata Google Home Brief, sta facendo discutere per un problema tanto curioso quanto inquietante.
La funzione, riservata agli utenti Google AI Pro, crea ogni giorno un riepilogo automatico degli eventi registrati da telecamere e sensori compatibili. In teoria, dovrebbe offrire una panoramica utile di ciò che accade in casa mentre si è assenti: chi rientra dal lavoro può chiedere a Google di leggere il proprio “brief” per sapere se qualcuno ha suonato alla porta o se i sensori hanno rilevato movimenti sospetti.
Negli ultimi giorni, però, diversi utenti americani hanno iniziato a segnalare anomalie inquietanti. Su Reddit sono comparsi post corredati da screenshot di riepiloghi che descrivono scene mai accadute. In uno dei casi più citati, l’assistente avrebbe riferito:
“C’è stata una notevole attività in salotto. Al mattino una persona è entrata nella stanza più volte e si è seduta sulla sdraio. In serata, la videocamera del salotto ha di nuovo rilevato una persona entrare e uscire dal campo visivo.”
Un messaggio che, comprensibilmente, ha fatto gelare il sangue a più di un proprietario, convinto di essere stato vittima di un’intrusione. Solo dopo ulteriori verifiche si è scoperto che si trattava di falsi positivi generati dall’AI.
Il problema di interpretazione di Gemini for Home
In diversi casi, Gemini for Home avrebbe semplicemente mal interpretato i movimenti o le ombre catturate dalle telecamere, scambiandole per persone o animali. Un utente ha raccontato: “Ricevo notifiche continue per passaggi notturni di procioni, ma sono chiaramente i miei gatti”.
Google non ha ancora rilasciato una dichiarazione ufficiale sul bug, ma le segnalazioni continuano ad aumentare. Secondo gli utenti, l’errore sarebbe legato al modo in cui il modello di Gemini elabora i dati visivi e testuali per costruire i riepiloghi quotidiani, un processo che sembra essere ancora troppo sensibile a movimenti casuali o variazioni di luce.
L’episodio mette in luce i limiti di un’intelligenza artificiale applicata alla sicurezza domestica. Se da un lato offre comodità e automazione, dall’altro rischia di generare falsi allarmi che possono spaventare gli utenti. Per il momento, molti hanno scelto di disattivare temporaneamente la funzione in attesa di un aggiornamento correttivo.
