Negli ultimi giorni, sui social è scoppiata una piccola mania: caricare una foto qualsiasi — magari di una strada un po’ anonima, un paesaggio urbano qualunque — e chiedere a ChatGPT: “Sai dove siamo?” E la risposta, spesso, è sì. Non un “forse in Europa” o “da qualche parte in Asia”, ma risposte tipo “quartiere X a Tokyo”, “vicino a questo bar di Lisbona”. Una precisione quasi inquietante.
Quando una foto basta per sapere tutto
Tutto questo succede grazie ai nuovi modelli visivi di OpenAI, chiamati o3 e o4-mini, che stanno facendo parlare di sé per una capacità sempre più raffinata di leggere il mondo attraverso le immagini. Non solo vedono, ma capiscono. Riconoscono dettagli minimi: la forma di un lampione, il tipo di piastrella sul marciapiede, lo stile dei numeri civici. E li collegano a luoghi reali. In pratica, un GeoGuessr con gli steroidi — il famoso gioco online dove si cerca di indovinare la posizione da una foto — ma con l’intelligenza artificiale al posto del giocatore umano.
Certo, è divertente. Anzi, entusiasmante per molti: un modo nuovo di interagire con l’IA, che rende tutto più “magico”. Ma la domanda sorge spontanea: e la privacy? Se ChatGPT riesce a indovinare dove ci troviamo da una singola foto, cosa succede quando questa capacità viene usata con secondi fini?
È lo stesso OpenAI ad ammettere che sì, il potenziale per abusi esiste. Anche se i modelli sono addestrati a non rispondere a domande troppo personali o sensibili, la creatività degli utenti può superare certe barriere. Ed è qui che il gioco rischia di diventare un po’ meno divertente.
Brendan Jowett, uno dei primi a mostrare questa funzione in azione, ha documentato casi in cui ChatGPT è riuscito a riconoscere bar, negozi e perfino interni di case, partendo da dettagli minuscoli. Ed è proprio questa abilità a far riflettere: ciò che a noi sembra sfocato, insignificante, loro lo leggono come coordinate, indizi, destinazioni.
Il confine tra “wow, guarda che roba” e “ok, forse è troppo” si sta facendo sottile. E mentre la tecnologia corre, il dibattito su come usarla in modo responsabile è più acceso che mai. Perché è vero che ci piace stupirci. Ma, a volte, ci dimentichiamo che anche i giochi più innocenti possono avere risvolti molto reali.
