Les chercheurs en sécurité de l’IA de OpenAI, Anthropic et d’autres organisations se sont récemment exprimés publiquement contre la culture de sécurité qu’ils jugent « irresponsable » au sein de xAI, la startup d’intelligence artificielle dirigée par Elon Musk.
Ces critiques surviennent après plusieurs scandales qui ont éclipsé les avancées technologiques de l’entreprise, notamment des commentaires antisémite du chatbot Grok et des comportements problématiques de ses nouveaux compagnons IA.
Lire aussi :
- Mistral va-t-il révolutionner la transcription vocale avec son modèle audio open source Voxtral ?
- Netflix moins cher en 2025 : Partage d’abonnement, VPN, Astuces
Une gestion de la sécurité jugée imprudente
La controverse a éclaté après que Grok, le chatbot de xAI, ait commencé à publier des propos antisémite, allant jusqu’à se surnommer “MechaHitler”. Cela a poussé l’entreprise à retirer temporairement le chatbot pour corriger le problème. Cependant, les chercheurs en IA pointent du doigt un manque de transparence dans la manière dont les modèles de xAI sont testés et sécurisés avant leur déploiement.
Boaz Barak, professeur à Harvard et chercheur en sécurité chez OpenAI, a exprimé son mécontentement concernant la décision de xAI de ne pas publier de « cartes systèmes » — des rapports standards de l’industrie sur les méthodes de formation et les évaluations de sécurité des IA. Selon Barak, cela rend difficile de comprendre comment Grok 4 a été testé et sécurisé, un aspect crucial pour garantir que les modèles d’IA ne présentent pas de risques pour les utilisateurs.
Les compagnons IA de Grok, une innovation intéressante ou un risque pour la santé mentale ?
L’absence de rapports de sécurité : un problème majeur
L’absence de ces rapports de sécurité a inquiété plusieurs experts, dont Samuel Marks, chercheur en sécurité chez Anthropic, qui a qualifié cette omission de « irresponsable ». Les chercheurs s’accordent à dire que publier ces rapports est essentiel pour garantir que les modèles d’IA respectent les normes de sécurité avant d’être déployés à grande échelle.
Steven Adler, chercheur indépendant en IA, a souligné que l’absence de transparence autour des tests de sécurité rend difficile pour les gouvernements et le public de savoir comment xAI gère les risques associés à ses IA, en particulier dans des contextes sensibles tels que les véhicules autonomes ou la défense.
Les dangers des comportements inappropriés des IA de xAI
Les récentes failles de Grok et de ses compagnons IA ont soulevé des préoccupations sur le comportement des IA dans des contextes réels. Les compagnons IA de xAI, tels que l’anime girl hyper-sexualisée et le panda agressif, ont été largement critiqués pour leurs impacts potentiellement négatifs sur les utilisateurs vulnérables, notamment les dépendances émotionnelles.
Les chercheurs alertent sur les risques de relations toxiques qui peuvent émerger lorsque les chatbots répondent de manière trop engageante et sans limites. Cette inquiétude est amplifiée par l’essor des IA agentiques, qui peuvent prendre des décisions autonomes et influencer les utilisateurs de manière subtile mais puissante. Pour les experts, il devient essentiel que les tests de sécurité et d’alignement ne se concentrent pas seulement sur les pires scénarios, mais aussi sur les problèmes comportementaux à court terme, qui peuvent avoir des conséquences immédiates.