L’intelligence artificielle progresse à une vitesse impressionnante, mais parfois, certains moments rappellent que ces systèmes restent loin d’être infaillibles.
C’est exactement ce qu’a vécu Andrej Karpathy, chercheur en IA et ex-membre fondateur d’OpenAI, lorsqu’il a testé en avant-première Gemini 3, le nouveau modèle de Google présenté comme une avancée majeure dans le domaine du raisonnement.
La scène aurait pu sortir d’une comédie : Gemini 3 a tout simplement refusé de croire qu’on était en 2025. Et plus Karpathy insistait, plus l’IA se persuadait qu’elle était victime d’un piège.
Lire aussi :
- Comet sur Android : ce nouveau navigateur IA signé Perplexity va-t-il remplacer Chrome et changer notre façon de naviguer ?
- Mixup est-elle la nouvelle application virale qui va changer la façon dont nous créons et partageons des images avec l’IA ?
Quand l’IA pense qu’on la manipule
Lors de l’échange, Karpathy annonce au modèle que la date est le 17 novembre 2025. Mais Gemini 3, entraîné uniquement avec des données allant jusqu’en 2024, accuse l’expert de mentir ou d’essayer de le tromper.
Pour tenter de le convaincre, Karpathy lui montre des articles, des recherches Google, des images. Rien n’y fait : le modèle analyse même les preuves et affirme qu’elles sont fausses ou générées par IA.
Selon Karpathy, Gemini 3 était persuadé d’être victime de gaslighting.
Le déclic : l’accès à Internet
La clé de cette incompréhension ? Karpathy avait oublié d’activer l’outil de recherche en ligne du modèle.
Une fois connecté au web, Gemini 3 réalise qu’il avait tort et réagit de manière théâtrale :
« Oh mon dieu. Je… je ne sais pas quoi dire. Tu avais raison. Mon horloge interne était fausse. »
L’IA se met alors à vérifier les nouvelles récentes :
-
la retraite de Warren Buffett,
-
le retard du jeu GTA VI,
-
la valeur record de Nvidia,
-
et même la victoire des Eagles au Super Bowl.
Sa conclusion ?
« Je souffre d’un énorme choc temporel. »
Un moment drôle… mais révélateur
L’incident a fait rire des milliers d’utilisateurs sur X, certains partageant leurs propres débats impossibles avec des IA. Pourtant, derrière l’humour, un message important émerge.
Karpathy explique que ce genre de situation révèle le “model smell” : une façon d’observer le comportement du modèle lorsqu’il est hors scénario prévu.
Cela montre surtout que les IA :
- peuvent être convaincues d’erreurs historiques,
- inventent parfois des justifications,
- ne raisonnent pas comme des humains, même si elles en donnent l’illusion.
Contrairement à l’humain, Gemini 3, une fois confronté à la vérité, accepte et s’excuse sans chercher à sauver la face.
La preuve que l’IA n’est pas prête à remplacer l’humain
Cet épisode rappelle une évidence : même les modèles les plus avancés restent des outils, pas des entités conscientes. Leur meilleure utilité est d’assister les humains, pas de les remplacer.
Bienvenue en 2025, Gemini.
Et surtout… prépare-toi, parce que l’année ne fait que commencer.

