Google sta aggiornando il suo strumento di virtual try-on per l’abbigliamento: ora basta un semplice selfie per vedere come ti stanno i vestiti, senza dover caricare una foto a figura intera.
Il sistema usa il modello di image generation Nano Banana, parte della suite Gemini 2.5 Flash, per creare una versione digitale a figura intera dell’utente a partire solo dal volto. Su questa “persona virtuale” vengono poi proiettati i capi disponibili su Google Shopping.
In pratica, Google porta un’esperienza da camerino virtuale direttamente dentro Search e Shopping, riducendo ancora di più la distanza tra scoperta del prodotto e acquisto.
Il flusso per l’utente è molto semplice:
Chi preferisce può ancora usare:
Rispetto al primo lancio del 2023–2025 (in cui si provavano i capi su modelli reali o su una foto full body dell’utente), il salto è chiaro: meno attrito e molto più realismo personalizzato.
Al momento, la funzione selfie-based è disponibile solo negli Stati Uniti e per capi di abbigliamento supportati all’interno di Google Shopping.
Per i retailer coinvolti significa:
Per chi lavora su mercati europei (Italia inclusa), è il classico campanello d’allarme: quando questo tipo di funzione arriverà anche da noi, i brand che già oggi hanno foto prodotto pulite, schede ben strutturate e feed Shopping ben ottimizzati partiranno in vantaggio.
Il nuovo AI Try-On di Google tocca diversi punti chiave del funnel:
Per un brand o un e-commerce questo si traduce in:
Lato privacy, Google dichiara che le immagini vengono usate per generare l’esperienza di try-on, ma invita gli utenti a consultare le policy per capire meglio eventuali forme di conservazione e trattamento dei dati.
Alcuni limiti attuali:
Per le agenzie di comunicazione e marketing il messaggio è chiaro:
Chi lavora in fashion, beauty e retail ha davanti un nuovo terreno di gioco dove l’AI non sostituisce il negozio, ma ne cambia radicalmente le regole.
05 Febbraio 2025
22 Settembre 2025
16 Settembre 2025
25 Febbraio 2025
17 Settembre 2025