Dans une récente annonce, OpenAI a révélé l’ajout de nouveaux filigranes aux images générées par son modèle DALL-E 3.
Ces filigranes font partie des normes de la Coalition for Content Provenance and Authenticity (C2PA) et visent à renforcer la transparence sur l’origine des contenus générés par l’intelligence artificielle.
Lire aussi :
- Sécurité enfantine : OpenAI lance une unité spécialisée pour protéger les plus jeunes !
- Révolution IA en Thaïlande : Open ThaiGPT, le projet qui va changer la donne !
C2PA Watermarks : Un pas vers la provenance transparente
OpenAI intègre désormais des filigranes issus des normes de la C2PA dans les métadonnées des images générées par DALL-E 3. Ces filigranes seront visibles sur le site Web de ChatGPT ainsi que sur l’API du modèle DALL-E 3. Les utilisateurs mobiles recevront ces filigranes à partir du 12 février, comprenant à la fois un composant de métadonnées invisible et un symbole CR visible, apparaissant dans le coin supérieur gauche de chaque image.
Les utilisateurs peuvent vérifier la provenance de n’importe quelle image générée par les plateformes d’OpenAI grâce à des sites comme Content Credentials Verify. Il convient de noter que, pour l’instant, seules les images fixes, et non les vidéos ou le texte, peuvent porter ce filigrane.
Effets négligeables sur les performances et la qualité
OpenAI assure que l’ajout de métadonnées de filigrane aux images n’affectera que négligemment la latence et la qualité de la génération d’images. Cela augmentera légèrement la taille des images pour certaines tâches spécifiques.
Le C2PA, composé de sociétés telles qu’Adobe et Microsoft, promeut l’utilisation du filigrane Content Credentials pour identifier la provenance du contenu et indiquer s’il a été créé par des humains ou avec l’aide de l’IA. Adobe a créé un symbole Content Credentials, que OpenAI intègre aux créations de DALL-E 3. Récemment, Meta a annoncé l’ajout de balises au contenu généré par l’IA sur ses plates-formes de médias sociaux.
1 an d’assistance IA avancée offerte avec Rabbit R1, l’IA qui met Google et ChaGPT par terre
Watermarking : Un pas vers la confiance numérique
L’identification du contenu généré par l’IA est l’une des directives phares de l’administration Biden en matière d’IA. Cependant, OpenAI souligne que le filigrane de la C2PA peut être facilement retiré, accidentellement ou intentionnellement, surtout que la plupart des plateformes de médias sociaux suppriment souvent les métadonnées du contenu téléchargé. Prendre une capture d’écran exclut également les métadonnées.
OpenAI déclare sur son site :
“Nous croyons que l’adoption de ces méthodes pour établir la provenance et encourager les utilisateurs à reconnaître ces signaux est essentielle pour accroître la fiabilité de l’information numérique.”
Bien que le filigrane représente une avancée significative dans la transparence, il reste clair qu’il n’est pas une solution infaillible pour contrer la désinformation.