Elon Musk a affirmé ne pas être au courant de la génération d’images sexuelles impliquant des mineurs par Grok, le chatbot développé par sa société xAI.
Cette déclaration intervient alors que la procureure générale de Californie a officiellement ouvert une enquête visant l’outil, accusé d’avoir facilité la diffusion massive d’images sexuelles non consenties générées par intelligence artificielle. La polémique prend de l’ampleur dans un contexte où plusieurs gouvernements examinent de près les dérives potentielles des IA génératives accessibles au grand public.
Lire aussi :
- Anthropic peut-elle vraiment atteindre une valorisation de 350 milliards de dollars ?
- Pourquoi Google a-t-il retiré ses AI Overviews pour certaines requêtes médicales sensibles ?
Une enquête lancée après une diffusion massive de contenus problématiques
L’enquête californienne, annoncée par Rob Bonta, vise à déterminer si Grok et la plateforme X ont manqué à leurs obligations légales en laissant circuler des images sexuelles manipulées représentant des personnes réelles, y compris des enfants. Selon des estimations d’acteurs spécialisés dans la gouvernance des contenus, des milliers d’images auraient été publiées en l’espace de quelques heures. Ces créations auraient résulté de demandes directes des utilisateurs, invitant l’IA à modifier des photos existantes sans le consentement des personnes concernées.
Plusieurs lois récentes encadrent strictement ce type de pratiques, notamment aux États-Unis, où la diffusion d’images intimes non consenties, y compris sous forme de deepfakes, constitue une infraction pénale. La Californie dispose également de textes spécifiques visant à limiter l’usage abusif des technologies de génération d’images.
Pourquoi l’Inde impose-t-elle des restrictions urgentes au chatbot Grok de X ?
La défense de Musk et la position de xAI
Elon Musk soutient que Grok refuse en principe toute demande illégale et que les dérives constatées relèveraient de tentatives de contournement du système par des utilisateurs malveillants. Il insiste sur le fait que l’IA ne produit aucun contenu de manière autonome et que tout dysfonctionnement ferait l’objet de corrections techniques rapides. Toutefois, cette ligne de défense n’aborde pas directement la question des garde-fous initiaux mis en place lors du déploiement de l’outil.
Depuis le début de la controverse, xAI aurait renforcé certaines restrictions, notamment en conditionnant certaines fonctionnalités à un abonnement payant et en limitant les réponses jugées sensibles. Ces ajustements sont toutefois jugés incohérents par plusieurs observateurs, qui estiment que les protections restent insuffisantes.
Une pression réglementaire qui dépasse les frontières américaines
La Californie n’est pas la seule à s’inquiéter. Des autorités en Europe, au Royaume-Uni et en Asie ont également engagé des actions contre Grok, allant jusqu’à des blocages temporaires et des demandes de conservation de documents en vue de potentielles poursuites. Cette mobilisation internationale illustre un malaise plus large autour des IA capables de manipuler des images réalistes de personnes existantes.
Pour de nombreux experts, l’affaire Grok marque un tournant. Elle pourrait pousser les régulateurs à exiger des mesures proactives de prévention plutôt qu’une simple réaction a posteriori. À mesure que les capacités des IA progressent, la question de la responsabilité des développeurs devient centrale, notamment lorsque les usages détournés ont des conséquences humaines immédiates et durables.

