Sperimentare abiti su se stessi usando una semplice foto non è più fantascienza. Google ha infatti annunciato l’introduzione di una nuova funzione che consente agli utenti di visualizzare virtualmente un capo d’abbigliamento sulla propria immagine. Dopo una fase iniziale nei Search Labs, l’opzione è ora in fase di rilascio negli Stati Uniti. Gli utenti potranno caricare una propria foto a figura intera, che l’intelligenza artificiale elabora per simulare l’effetto realistico dei tessuti sul corpo. Si tratta di un salto di qualità rispetto al vecchio sistema, che utilizzava modelli predefiniti.
La tecnologia alla base sfrutta un modello generativo di AI avanzata, capace di analizzare proporzioni, pieghe e movimenti degli indumenti. Google raccomanda di usare immagini ben illuminate, senza altre persone nell’inquadratura e con una postura naturale. Il sistema è integrato nella ricerca Google, su Google Shopping e persino nei risultati di Google Immagini. Anche se l’Italia non è ancora tra i paesi abilitati, è molto probabile che l’opzione venga estesa nei prossimi mesi. I milioni di prodotti presenti nel cosiddetto Shopping Graph diventeranno così accessibili in modo del tutto nuovo, con un’interazione visiva in tempo reale.
Google Shopping gioca con l’intelligenza artificiale e ridefinisce il risparmio
Accanto alla prova virtuale, Google ha introdotto un aggiornamento significativo anche sul fronte delle offerte. Il sistema di tracciamento dei prezzi, già noto agli utenti, ora diventa più preciso e personalizzabile. Non ci si dovrà più accontentare di avvisi generici: sarà possibile impostare soglie di prezzo specifiche, tramite uno slider che permette di definire il massimo importo desiderato. Non solo: si potrà monitorare anche una singola taglia o un colore specifico, evitando notifiche superflue.
A rendere ancora più efficace questo strumento è l’integrazione con Gemini, il nuovo motore AI di Google, segnalato con una stella distintiva. In autunno arriverà inoltre la modalità “AI Mode”, che aprirà la strada a esperienze interattive anche nella ricerca di ispirazione per look e arredamento. Basandosi sulla “vision match”, il sistema mostrerà articoli simili a quelli richiesti, pescando da un catalogo di oltre 50 miliardi di prodotti.
