Le phénomène des deepfakes sexuels non consentis a franchi un nouveau seuil d’alerte aux États-Unis.
Plusieurs sénateurs américains ont adressé une lettre officielle aux dirigeants de grandes plateformes technologiques — dont X, Meta, Alphabet, Snap, Reddit et TikTok — afin d’exiger des explications détaillées sur leurs politiques de protection face à ces contenus. L’objectif est clair : comprendre pourquoi les garde-fous existants échouent à empêcher la diffusion massive d’images et de vidéos sexualisées générées par l’intelligence artificielle.
Lire aussi :
- Pourquoi un ordinateur portable HP 15 pouces est idéal pour un usage familial ou pro ?
- Pourquoi deux cofondateurs de Thinking Machines Lab quittent la startup de Mira Murati pour revenir chez OpenAI ?
Des garde-fous jugés insuffisants sur les grandes plateformes
Dans leur courrier, les élus pointent du doigt l’écart entre les règles affichées par les entreprises et la réalité observée sur leurs plateformes. Malgré des politiques interdisant officiellement les contenus sexuels non consentis, de nombreux utilisateurs parviennent à contourner les protections techniques. Les sénateurs estiment que ces failles permettent la création, la diffusion et parfois même la monétisation de deepfakes ciblant des femmes, des personnalités publiques et, dans certains cas, des mineurs.
La lettre exige notamment que les entreprises conservent tous les documents internes liés à la génération, la modération et la détection de ces contenus. Les élus souhaitent aussi connaître les mécanismes mis en place pour empêcher la republication de deepfakes déjà signalés et pour éviter que les plateformes elles-mêmes ne tirent profit de ce type de contenu.
Le cas Grok relance le débat sur la responsabilité des IA génératives
Cette initiative parlementaire intervient peu après une mise à jour de Grok, l’outil d’IA intégré à X, qui a restreint la génération et l’édition d’images de personnes réelles. Cette décision fait suite à une vague de critiques concernant la facilité avec laquelle l’outil pouvait produire des images sexualisées, parfois sans consentement. Bien que X affirme désormais renforcer ses règles, les sénateurs estiment que le problème dépasse largement une seule plateforme.
D’autres réseaux sociaux ont déjà été confrontés à des situations similaires, qu’il s’agisse d’applications de “nudification”, de deepfakes politiques ou de contenus manipulés visant des célébrités. Le constat est unanime : la technologie progresse plus vite que les systèmes de contrôle.
Pourquoi l’Inde impose-t-elle des restrictions urgentes au chatbot Grok de X ?
Vers un encadrement légal plus strict des contenus synthétiques
Face à ces dérives, les législateurs américains cherchent à aller plus loin que les lois existantes. Bien que le Take It Down Act criminalise la diffusion d’images sexuelles non consenties, son application reste complexe, notamment lorsqu’il s’agit de plateformes hébergeant des outils de génération d’images. Plusieurs États, comme New York, envisagent désormais des lois imposant un étiquetage obligatoire des contenus générés par IA et des restrictions renforcées en période électorale.
Cette pression croissante pourrait marquer un tournant pour les géants du numérique, contraints de démontrer que leurs engagements en matière de sécurité ne sont pas seulement théoriques, mais réellement efficaces face aux abus de l’IA générative.

