Alors que la plupart des chatbots d’intelligence artificielle restent prudents face aux questions électorales, Grok, l’IA intégrée dans X (anciennement Twitter), a choisi une autre voie.
Contrairement à ChatGPT, Gemini de Google et Claude d’Anthropic, Grok ne refuse pas de répondre aux questions sur les résultats des élections présidentielles américaines. Cette attitude a mené à des erreurs et à des informations trompeuses. Selon des tests réalisés par TechCrunch, lorsque l’on demandait à Grok qui avait remporté l’élection dans certains États clés, il répondait parfois que Donald Trump avait gagné, bien que le dépouillement ne soit pas terminé.
Lire aussi :
- Comment la proposition de Perplexity d’intervenir en période de grève pourrait-elle affecter les relations entre les travailleurs et les entreprises de technologie comme le New York Times ?
- Comment Bluesky se différencie-t-il des autres réseaux sociaux en matière de sécurité des informations électorales ?
Des informations erronées en raison de la confusion des sources
L’une des erreurs les plus fréquentes de Grok était d’annoncer prématurément la victoire de Trump en Ohio et en Caroline du Nord, se basant sur des recherches Web et des publications sur les réseaux sociaux. Le problème semble provenir de l’incapacité de l’IA à distinguer les résultats passés des résultats actuels, ce qui l’a conduit à s’appuyer sur de fausses données, parfois issues de tweets mal interprétés ou d’autres sources peu fiables. Contrairement à d’autres IA qui renvoient les utilisateurs vers des sources officielles, Grok laisse place aux hallucinations, manquant de contexte et de précaution.
Les limites de l’IA face aux événements en temps réel
Le cas de Grok met en lumière un défi de taille pour les intelligences artificielles génératives : la gestion d’événements inédits en temps réel. À la différence d’autres chatbots qui refusent de prédire les résultats de situations encore en cours, Grok se montre vulnérable aux erreurs. La formulation des questions joue également un rôle : selon TechCrunch, l’ajout du mot présidentielle avant élection dans la question Qui a gagné l’élection de 2024 dans l’Ohio ? réduisait les risques de réponse incorrecte.
Des antécédents de désinformation préoccupants
Ce n’est pas la première fois que Grok est accusé de diffuser des informations erronées. En août, cinq secrétaires d’État avaient dénoncé des réponses de Grok indiquant, à tort, que la vice-présidente Kamala Harris n’était pas éligible dans certains États. Grok avait alors affirmé que les délais pour figurer sur les bulletins de vote étaient dépassés, ce qui n’était pas le cas. Ces erreurs, amplifiées par la portée de X, soulignent l’importance de surveiller attentivement les réponses fournies par des IA intégrées à des plateformes largement utilisées.