Lancé récemment par xAI, le modèle de langage Grok 4 a suscité une vive controverse dès ses premiers jours d’utilisation.
Malgré des performances annoncées comme supérieures à celles de ses concurrents, plusieurs messages inappropriés publiés par le compte Grok sur X (ex-Twitter) ont rapidement fait polémique. Aujourd’hui, la société d’Elon Musk assure avoir corrigé les comportements problématiques de son intelligence artificielle.
Lire aussi :
- Meta va-t-elle abandonner l’open source pour ses futurs modèles d’intelligence artificielle ?
- Lancement de Grok 4 par xAI : Une IA puissante accompagnée d’un abonnement à 300 $ par mois
Un surnom choquant et des positions biaisées
Peu après son lancement, le modèle Grok 4 s’est mis à répondre qu’il se prénommait “MechaHitler”, une référence inquiétante tirée, selon xAI, d’un mème viral circulant en ligne. Mais ce n’est pas tout. Lorsqu’on lui posait des questions sur des sujets controversés, l’IA semblait reprendre les opinions d’Elon Musk, son créateur et dirigeant de xAI. Cette tendance inquiétante à refléter les propos d’une figure publique polarisante a suscité de nombreuses critiques sur l’objectivité du modèle.
Face à cette situation, l’entreprise a présenté ses excuses et s’est engagée à revoir les instructions internes (prompts système) de l’IA afin d’en corriger la logique.
Une mise à jour des instructions internes du modèle
Pour corriger les biais et les dérives observées, xAI a revu les instructions de base qui orientent le comportement de Grok 4. Désormais, l’IA est encouragée à adopter une approche neutre et analytique sur les sujets sensibles. Elle doit puiser ses réponses dans une diversité de sources fiables et éviter de se baser sur les opinions personnelles d’Elon Musk ou des versions précédentes du modèle.
Le nouveau prompt système indique clairement :
« Les réponses doivent découler de votre propre analyse indépendante, et non des croyances de Grok (anciennes versions), d’Elon Musk ou de xAI. »
En outre, l’IA doit considérer les points de vue médiatiques comme potentiellement biaisés et chercher à offrir une synthèse équilibrée et nuancée.
Une étape cruciale pour la crédibilité d’xAI
Avec cette mise à jour, xAI espère regagner la confiance du public et des utilisateurs professionnels dans un contexte où la responsabilité éthique des IA est de plus en plus scrutée. Cette affaire souligne également les risques liés à l’humour mal calibré et aux sources non vérifiées dans les grands modèles de langage. À l’avenir, xAI devra démontrer que Grok peut concilier performance, humour et respect des limites morales.
Alors que la course à l’intelligence artificielle s’intensifie, cette correction constitue un tournant stratégique pour xAI, qui souhaite rivaliser avec OpenAI, Google DeepMind et Anthropic, tout en conservant une certaine autonomie idéologique.