À peine lancée en accès anticipé, l’application sociale Sora d’OpenAI, présentée comme une alternative à TikTok, est déjà au cœur d’une controverse.
Conçue pour exploiter le modèle vidéo Sora 2, elle permet aux utilisateurs de générer des vidéos hyperréalistes et de les partager dans un flux algorithmique. Mais moins de 24 heures après son ouverture, le réseau est déjà saturé de deepfakes de Sam Altman, le PDG d’OpenAI, dans des mises en scène parfois absurdes, souvent inquiétantes.
Lire aussi :
- Comment DeepSeek veut-il diviser par deux les coûts d’API grâce à son modèle sparse attention V3.2-exp ?
- Pourquoi Bluesky lance-t-il la vérification d’âge obligatoire pour ses utilisateurs dans l’Ohio ?
Des scènes réalistes entre humour et malaise
Sur Sora, les vidéos d’Altman se multiplient. On le retrouve tantôt au milieu d’un élevage industriel de cochons rivés à leurs smartphones, tantôt servant des cafés avec Pikachu et Eric Cartman. Dans une autre scène, il s’enfuit d’un magasin Target après avoir volé des GPU Nvidia, avant de supplier la police de lui laisser son précieux matériel.
Si ces vidéos prêtent à sourire, elles soulèvent des questions sérieuses sur les violations de copyright et l’usage de l’image de personnalités réelles sans consentement explicite. OpenAI a mis en place des avertissements signalant les dérives potentielles, mais les utilisateurs parviennent déjà à contourner ces garde-fous. Résultat : le flux de Sora est inondé de contenus mêlant personnages fictifs, célébrités et mises en scène satiriques.
La fonction “cameo”, un outil puissant mais risqué
Le cœur de Sora repose sur la fonction “cameo”, qui invite chaque utilisateur à fournir une courte vidéo et un enregistrement vocal pour générer un double numérique. Une fois créé, ce double peut être utilisé dans des scènes générées par l’IA, avec la possibilité de définir qui peut y avoir accès : seulement soi-même, ses amis approuvés, ses contacts mutuels ou tout le monde.
Sam Altman, volontairement ou non, a rendu son cameo public, ouvrant ainsi la porte à la vague actuelle de parodies. Ce choix semble être une démonstration de confiance dans la technologie, mais il met aussi en lumière les risques d’un tel système. Car si les vidéos d’Altman nourrissent surtout l’humour des internautes, rien n’empêche que ces mêmes outils soient utilisés pour détourner l’image d’autres individus à des fins malveillantes.
Entre créativité et menace de désinformation
OpenAI insiste sur ses engagements en matière de sécurité : contrôles parentaux, options de confidentialité, rappels réguliers sur l’impact émotionnel de l’application… Mais dans la pratique, les garde-fous paraissent insuffisants. Des utilisateurs détournent déjà les règles pour générer des vidéos de figures historiques ou politiques, brouillant la frontière entre parodie et manipulation.
Avec un outil aussi simple d’accès, la crainte est de voir se multiplier les deepfakes politiques ou diffamatoires. Ce phénomène, déjà présent sur les réseaux sociaux traditionnels, pourrait s’amplifier de façon exponentielle si Sora devient grand public. L’application illustre parfaitement le paradoxe des innovations en IA : fascinantes par leur réalisme et leur potentiel créatif, mais lourdes de risques sociétaux et éthiques..