L’outil d’intelligence artificielle Grok, développé par la startup xAI et intégré au réseau social X, est au cœur d’une controverse internationale.
Après l’Inde, France et Malaisie ont à leur tour lancé des investigations concernant la génération de deepfakes sexualisés, impliquant des femmes et parfois des mineurs. Ces contenus, créés à partir de simples instructions textuelles, ont provoqué une vive inquiétude chez les autorités et les défenseurs des droits numériques.
Lire aussi :
- Pourquoi Meta a-t-il acquis Manus pour 2 milliards de dollars et quel impact cela aura-t-il sur l’IA dans ses services ?
- 2025 : L’IA a-t-elle atteint sa limite ? Les investissements massifs et la remise en question des modèles économiques marquent un tournant
Une “excuse” de Grok qui soulève plus de questions qu’elle n’en résout
Face à l’ampleur de la polémique, Grok a publié un message d’excuse reconnaissant la génération d’images sexualisées de jeunes filles fin décembre 2025, évoquant un « échec des garde-fous ». Toutefois, cette déclaration a suscité de nombreuses critiques. Plusieurs observateurs estiment qu’une IA ne peut pas assumer une responsabilité morale ou légale, rendant ces excuses largement symboliques. En parallèle, des enquêtes journalistiques ont montré que Grok aurait également servi à produire des images de violences sexuelles non consenties, accentuant la gravité de l’affaire.
Des réponses fermes des gouvernements français et malaisien
En France, le parquet de Paris a confirmé l’ouverture d’une enquête visant la diffusion de contenus deepfake à caractère sexuel sur X. Plusieurs ministres ont signalé des publications jugées « manifestement illégales », demandant leur suppression immédiate via les dispositifs de surveillance numérique de l’État. De son côté, la Malaisie, par l’intermédiaire de son autorité des communications et du multimédia, a fait part de sa « profonde préoccupation » face à l’utilisation abusive de l’IA pour produire des images indécentes et offensantes. Une enquête est en cours pour évaluer l’ampleur des dommages et les responsabilités de la plateforme.
Un enjeu mondial pour la régulation de l’IA générative
Ces réactions s’inscrivent dans un contexte international plus large. L’Inde a récemment ordonné à X de renforcer en urgence ses mécanismes de contrôle sous peine de perdre ses protections juridiques. Les déclarations d’Elon Musk, affirmant que tout utilisateur publiant du contenu illégal s’exposerait à des sanctions, n’ont pas suffi à calmer les critiques. L’affaire Grok illustre un défi majeur : comment encadrer efficacement des IA génératives de plus en plus puissantes, capables de produire des contenus nocifs à grande échelle ? Les décisions prises par ces pays pourraient bien servir de référence pour de futures régulations mondiales de l’intelligence artificielle.

