Google s’apprête à intégrer une nouvelle mention pour les photos modifiées par intelligence artificielle (IA) dans son application Google Photos.
Dès la semaine prochaine, chaque image éditée via des outils tels que Magic Editor, Magic Eraser, ou Zoom Enhance comportera un avertissement dans la section Détails, indiquant qu’elle a été Modifiée avec Google IA. Cette initiative de Google vise à apporter plus de transparence quant aux modifications effectuées sur les images, répondant aux préoccupations croissantes autour de la manipulation d’images via IA. Cependant, certains aspects de cette transparence posent encore question.
Lire aussi :
- Pourquoi l’autorisation du Congrès est-elle cruciale pour garantir la pérennité de l’Institut de Sécurité de l’IA aux États-Unis ?
- Comment Anthropic a-t-il assuré la sécurité de Claude 3.5 Sonnet face aux risques d’utilisation malveillante ?
Des mentions accessibles, mais peu visibles
Si la transparence est un objectif affiché par Google, les informations restent dissimulées dans la section Détails de chaque photo. Cela signifie que les utilisateurs doivent cliquer spécifiquement pour consulter ces informations, ce qui réduit l’accessibilité immédiate de ces mentions. Contrairement aux filigranes visibles, ces informations n’apparaissent pas directement sur l’image elle-même, ce qui laisse de la place aux doutes. Sur les réseaux sociaux ou dans les messages partagés, il est donc difficile pour le spectateur de savoir si une photo a été modifiée par IA sans exploration approfondie.
Google répond aux critiques, mais sans révolution
La décision d’ajouter ces mentions intervient après plusieurs critiques liées à la diffusion massive d’outils d’édition IA sans filigranes visibles. Bien que ces indications sur les modifications apportées aux images figurent déjà dans les métadonnées des photos, Google tente ici de simplifier leur accès avec une mention sous l’onglet Détails. Malgré tout, certains pensent que cette solution ne répond pas totalement aux attentes. En effet, les gens ne consultent que rarement les détails d’une image, surtout en naviguant rapidement en ligne.
La prolifération des images modifiées : un défi de transparence
Les outils IA de Google, très performants, pourraient intensifier la création de contenu synthétique sur internet, rendant encore plus difficile la distinction entre le réel et le faux. Google suit ici l’exemple de plateformes comme Meta, qui indique déjà les images générées par IA sur Facebook et Instagram, et prévoit aussi d’intégrer ces mentions dans son moteur de recherche prochainement. Cependant, la question de l’authenticité visuelle demeure sans solution idéale. Les filigranes visibles, souvent évoqués, restent des moyens imparfaits : facilement contournables, ils n’assurent pas une transparence totale et inaltérable.
En conclusion, bien que Google avance vers une plus grande clarté autour des modifications de ses images, le chemin pour atteindre une transparence absolue reste long et semé d’embûches.