Alors que la plupart des chatbots dโintelligence artificielle restent prudents face aux questions รฉlectorales, Grok, lโIA intรฉgrรฉe dans X (anciennement Twitter), a choisi une autre voie.
Contrairement ร ChatGPT, Gemini de Google et Claude dโAnthropic, Grok ne refuse pas de rรฉpondre aux questions sur les rรฉsultats des รฉlections prรฉsidentielles amรฉricaines. Cette attitude a menรฉ ร des erreurs et ร des informations trompeuses. Selon des tests rรฉalisรฉs par TechCrunch, lorsque lโon demandait ร Grok qui avait remportรฉ lโรฉlection dans certains รtats clรฉs, il rรฉpondait parfois que Donald Trump avait gagnรฉ, bien que le dรฉpouillement ne soit pas terminรฉ.
Lire aussi :
- Comment la proposition de Perplexity dโintervenir en pรฉriode de grรจve pourrait-elle affecter les relations entre les travailleurs et les entreprises de technologie comme le New York Times ?
- Comment Bluesky se diffรฉrencie-t-il des autres rรฉseaux sociaux en matiรจre de sรฉcuritรฉ des informations รฉlectorales ?
Des informations erronรฉes en raison de la confusion des sources
Lโune des erreurs les plus frรฉquentes de Grok รฉtait dโannoncer prรฉmaturรฉment la victoire de Trump en Ohio et en Caroline du Nord, se basant sur des recherches Web et des publications sur les rรฉseaux sociaux. Le problรจme semble provenir de lโincapacitรฉ de lโIA ร distinguer les rรฉsultats passรฉs des rรฉsultats actuels, ce qui lโa conduit ร sโappuyer sur de fausses donnรฉes, parfois issues de tweets mal interprรฉtรฉs ou dโautres sources peu fiables. Contrairement ร d’autres IA qui renvoient les utilisateurs vers des sources officielles, Grok laisse place aux hallucinations, manquant de contexte et de prรฉcaution.
Les limites de lโIA face aux รฉvรฉnements en temps rรฉel
Le cas de Grok met en lumiรจre un dรฉfi de taille pour les intelligences artificielles gรฉnรฉratives : la gestion dโรฉvรฉnements inรฉdits en temps rรฉel. ร la diffรฉrence dโautres chatbots qui refusent de prรฉdire les rรฉsultats de situations encore en cours, Grok se montre vulnรฉrable aux erreurs. La formulation des questions joue รฉgalement un rรดle : selon TechCrunch, lโajout du mot prรฉsidentielle avant รฉlection dans la question Qui a gagnรฉ lโรฉlection de 2024 dans lโOhio ? rรฉduisait les risques de rรฉponse incorrecte.
Des antรฉcรฉdents de dรฉsinformation prรฉoccupants
Ce nโest pas la premiรจre fois que Grok est accusรฉ de diffuser des informations erronรฉes. En aoรปt, cinq secrรฉtaires d’รtat avaient dรฉnoncรฉ des rรฉponses de Grok indiquant, ร tort, que la vice-prรฉsidente Kamala Harris nโรฉtait pas รฉligible dans certains รtats. Grok avait alors affirmรฉ que les dรฉlais pour figurer sur les bulletins de vote รฉtaient dรฉpassรฉs, ce qui nโรฉtait pas le cas. Ces erreurs, amplifiรฉes par la portรฉe de X, soulignent l’importance de surveiller attentivement les rรฉponses fournies par des IA intรฉgrรฉes ร des plateformes largement utilisรฉes.