Google sta aggiornando il suo strumento di virtual try-on per l’abbigliamento: ora basta un semplice selfie per vedere come ti stanno i vestiti, senza dover caricare una foto a figura intera.
Il sistema usa il modello di image generation Nano Banana, parte della suite Gemini 2.5 Flash, per creare una versione digitale a figura intera dell’utente a partire solo dal volto. Su questa “persona virtuale” vengono poi proiettati i capi disponibili su Google Shopping.
In pratica, Google porta un’esperienza da camerino virtuale direttamente dentro Search e Shopping, riducendo ancora di più la distanza tra scoperta del prodotto e acquisto.
Il flusso per l’utente è molto semplice:
Chi preferisce può ancora usare:
Rispetto al primo lancio del 2023–2025 (in cui si provavano i capi su modelli reali o su una foto full body dell’utente), il salto è chiaro: meno attrito e molto più realismo personalizzato.
Al momento, la funzione selfie-based è disponibile solo negli Stati Uniti e per capi di abbigliamento supportati all’interno di Google Shopping.
Per i retailer coinvolti significa:
Per chi lavora su mercati europei (Italia inclusa), è il classico campanello d’allarme: quando questo tipo di funzione arriverà anche da noi, i brand che già oggi hanno foto prodotto pulite, schede ben strutturate e feed Shopping ben ottimizzati partiranno in vantaggio.
Il nuovo AI Try-On di Google tocca diversi punti chiave del funnel:
Per un brand o un e-commerce questo si traduce in:
Lato privacy, Google dichiara che le immagini vengono usate per generare l’esperienza di try-on, ma invita gli utenti a consultare le policy per capire meglio eventuali forme di conservazione e trattamento dei dati.
Alcuni limiti attuali:
Per le agenzie di comunicazione e marketing il messaggio è chiaro:
Chi lavora in fashion, beauty e retail ha davanti un nuovo terreno di gioco dove l’AI non sostituisce il negozio, ma ne cambia radicalmente le regole.
19 Febbraio 2025
24 Maggio 2025
03 Febbraio 2025