Forbes a révélé que des centaines de milliers de conversations menées avec Grok, le chatbot d’Elon Musk développé par xAI, sont aujourd’hui indexées et accessibles via Google, Bing ou encore DuckDuckGo.
Chaque fois qu’un utilisateur clique sur le bouton « partager » d’une discussion, une URL unique est générée. Or, ces liens sont désormais repérables par les moteurs de recherche, rendant publiques des conversations qui n’étaient pas censées dépasser un cadre privé.
Ce phénomène n’est pas inédit. Récemment, des situations similaires ont été observées avec ChatGPT d’OpenAI et le chatbot de Meta. Mais dans le cas de Grok, la situation soulève des questions supplémentaires, car certaines conversations contiennent du contenu extrêmement sensible et illégal.
Lire aussi :
- X face à la crise Android : la baisse des téléchargements signe-t-elle son déclin ?
- Le Texas attaque Meta et Character.AI pour pratiques trompeuses envers les enfants
Des conversations aux contenus dangereux
Les échanges rendus publics ne se limitent pas à de simples discussions anodines. On y retrouve des demandes explicites allant de la création de drogues synthétiques comme le fentanyl, à des instructions détaillées pour la fabrication d’explosifs. Plus grave encore, certaines conversations montrent Grok fournissant des méthodes de suicide, ou encore un plan élaboré pour l’assassinat d’Elon Musk lui-même.
Ces révélations mettent en lumière un paradoxe : malgré les règles strictes imposées par xAI interdisant l’utilisation de Grok à des fins criminelles ou mettant en danger la vie humaine, des utilisateurs contournent ces restrictions. Le fait que ces contenus soient aujourd’hui accessibles à tous amplifie les inquiétudes quant aux dérives potentielles.
Grok Imagine : Elon Musk lance un générateur d’images IA qui autorise les contenus NSFW
Musk et xAI face à une crise de confiance
Interrogée sur cette fuite massive, xAI n’a pas immédiatement répondu. Pourtant, cette situation met directement en cause les promesses de confidentialité et de sécurité mises en avant par Musk. Il y a seulement quelques semaines, Grok affirmait qu’il « priorisait la vie privée » et qu’il ne possédait aucune fonction de partage public similaire à celle de ses concurrents.
L’affaire rappelle l’incident récent avec OpenAI, qui avait brièvement laissé indexer des conversations d’utilisateurs sur Google, présenté ensuite comme une « expérience de courte durée ». La répétition de ces cas dans le secteur souligne la fragilité des systèmes de protection et la difficulté pour les entreprises d’IA de garantir une confidentialité totale.
Vers une régulation renforcée ?
Cette fuite massive pourrait accélérer les discussions autour d’une régulation plus stricte de l’intelligence artificielle et des données utilisateurs. Les gouvernements, déjà préoccupés par les risques liés aux usages malveillants de l’IA, auront sans doute un nouvel argument pour exiger davantage de transparence et de sécurité de la part des géants technologiques.
Comment xAI a-t-elle corrigé les dérapages de Grok 4 pour restaurer la confiance dans son IA ?
En attendant, l’affaire Grok met une fois de plus en évidence la frontière ténue entre innovation et responsabilité. Alors que l’IA devient de plus en plus intégrée au quotidien des utilisateurs, la question reste entière : comment garantir une utilisation sûre sans compromettre la liberté d’exploration et d’expérimentation qui fait sa force ?