Google continue d’investir massivement dans l’IA appliquée au shopping en ligne. Sa dernière nouveauté marque un tournant : il est désormais possible d’essayer des vêtements virtuellement à partir d’un simple selfie.
Jusqu’ici, la fonctionnalité d’essayage virtuel nécessitait une photo en pied, ce qui constituait un frein pour de nombreux utilisateurs. Grâce aux avancées de son modèle d’IA Gemini 2.5 Flash Image, surnommé Nano Banana, Google est désormais capable de générer une représentation complète du corps à partir d’un portrait, rendant l’expérience beaucoup plus accessible et rapide.
Cette évolution vise à simplifier l’acte d’achat en ligne, tout en réduisant les incertitudes liées à la coupe ou au rendu des vêtements. En quelques secondes, l’utilisateur peut visualiser un article porté sur une version numérique de lui-même, sans effort supplémentaire.
Lire aussi :
- Microsoft investit 17,5 milliards de dollars en Inde : une expansion massive pour dominer l’IA et le cloud
- OpenAI peut-il vraiment garder son avance sur Google après son “code rouge” interne dévoilé ?
Un fonctionnement plus simple, mais toujours personnalisable
Le nouveau système repose sur une approche hybride. L’utilisateur prend un selfie, indique sa taille habituelle, puis laisse l’IA générer plusieurs silhouettes complètes. Il est ensuite possible de choisir l’image la plus fidèle pour l’utiliser comme modèle par défaut lors des prochains essayages. Pour ceux qui préfèrent garder un contrôle total, Google conserve la possibilité d’importer une photo en pied ou de sélectionner parmi des modèles aux morphologies variées.
Cette flexibilité permet à chacun d’adapter l’outil à son niveau de confort. Google insiste également sur la précision visuelle du rendu, avec des textures, des plis et des proportions ajustées en fonction du vêtement sélectionné. L’objectif est clair : rapprocher l’expérience numérique de la réalité afin de limiter les retours et améliorer la satisfaction des acheteurs.
Une stratégie globale autour du shopping assisté par IA
Cette mise à jour ne s’inscrit pas dans un effort isolé. Google développe depuis plusieurs mois un écosystème complet autour de l’essayage virtuel. La fonctionnalité est déjà intégrée à Google Search, Google Shopping et Google Images via le Shopping Graph. En parallèle, l’entreprise a lancé Doppl, une application dédiée à la visualisation de tenues grâce à l’intelligence artificielle.
Récemment enrichie d’un flux de découverte interactif, Doppl propose des recommandations personnalisées sous forme de contenus visuels inspirés des réseaux sociaux. Chaque article présenté est directement achetable, créant un lien fluide entre inspiration et conversion. En s’inspirant des codes de TikTok et Instagram, Google cherche à capter l’attention tout en guidant l’utilisateur vers l’achat.
Vers un futur du e-commerce plus immersif
Avec l’essayage par selfie, Google franchit une nouvelle étape dans la transformation du commerce en ligne. En combinant accessibilité, personnalisation et immersion visuelle, l’entreprise ambitionne de redéfinir la manière dont les consommateurs découvrent et achètent des vêtements. Si cette technologie est pour l’instant réservée aux États-Unis, elle illustre clairement la direction prise par Google : faire de l’IA un véritable assistant shopping du quotidien, capable d’anticiper les attentes et de simplifier chaque étape du parcours d’achat.

