YouTube vient de franchir une étape majeure dans la lutte contre les deepfakes et l’usurpation d’identité numérique.
La plateforme a officiellement lancé sa technologie de détection de ressemblance (likeness-detection technology), désormais disponible pour les créateurs éligibles inscrits au YouTube Partner Program. Cette innovation vise à permettre aux créateurs d’identifier et de supprimer les contenus générés par intelligence artificielle qui utilisent leur apparence ou leur voix sans autorisation.
Lire aussi :
- Microsoft va-t-il lancer un émulateur Xbox officiel sur Windows pour permettre aux joueurs de rejouer aux classiques de la Xbox 360 sur PC ?
- GPT-5 d’OpenAI accusé d’avoir exagéré ses découvertes mathématiques après une annonce jugée trompeuse
Une technologie pour contrer les dérives de l’IA
Après plusieurs mois de phase pilote, YouTube a annoncé que cette nouvelle fonctionnalité est déployée auprès d’une première vague de créateurs, contactés directement par e-mail. Le système détecte automatiquement les contenus qui utilisent le visage, la voix ou l’image d’un créateur grâce à l’intelligence artificielle.
L’objectif est clair : protéger les identités numériques contre les usages abusifs, qu’il s’agisse de fausses publicités, de manipulations politiques ou de campagnes de désinformation. Ces dernières années, plusieurs cas ont attiré l’attention, notamment celui du YouTuber Jeff Geerling, dont la voix avait été clonée par IA pour promouvoir des produits sans son accord.
YouTube entend ainsi redonner aux créateurs un contrôle concret sur leur image, dans un contexte où les faux contenus deviennent de plus en plus sophistiqués et répandus.
Comment fonctionne la détection de ressemblance sur YouTube ?
Pour accéder à la fonctionnalité, les créateurs doivent se rendre dans l’onglet « Likeness » de leur tableau de bord YouTube Studio. Ils doivent ensuite accepter les conditions de traitement des données et scanner un QR code à l’aide de leur smartphone pour vérifier leur identité via une pièce d’identité officielle et une courte vidéo selfie.
Une fois l’accès accordé, les utilisateurs peuvent consulter les vidéos détectées par le système et soumettre des demandes de suppression selon les directives de confidentialité de YouTube, ou encore déposer une plainte pour atteinte au droit d’auteur.
Les créateurs peuvent aussi choisir d’archiver les vidéos concernées, voire désactiver la détection s’ils le souhaitent. Dans ce cas, YouTube cesse toute analyse de contenu dans les 24 heures.
Un engagement croissant contre les faux contenus
Cette technologie s’inscrit dans une stratégie plus large de régulation des contenus IA sur la plateforme. En partenariat avec l’agence Creative Artists Agency (CAA), YouTube travaille depuis 2024 avec des célébrités, athlètes et influenceurs pour repérer les imitations numériques non autorisées.
En parallèle, la plateforme soutient activement le projet de loi américain NO FAKES Act, destiné à protéger les individus contre l’utilisation frauduleuse de leur image ou de leur voix générée par IA.
Avec cette avancée, YouTube se positionne comme l’un des pionniers de la protection des identités numériques, dans un monde où l’intelligence artificielle redéfinit les frontières entre création, imitation et désinformation.