L’intelligence artificielle a parcouru un long chemin, mais des tests récents sur le modèle Gemini 2.5 de Google montrent que même les systèmes les plus avancés ont leurs limites.
L’IA de Google a été mise à l’épreuve dans des jeux vidéo classiques comme Pokémon pour observer sa capacité de raisonnement. Cependant, ces tests ont révélé un phénomène surprenant : une sorte de “panique” chez l’IA, ce qui a entraîné une dégradation temporaire de ses performances. Cela soulève des questions importantes sur la fiabilité de ces modèles dans des situations stressantes et complexes.
Lire aussi :
- Netflix moins cher en 2025 : Partage d’abonnement, VPN, Astuces
- Quelles sont les initiatives récentes de Google pour renforcer la cybersécurité en Inde ?
Le test de Gemini 2.5 dans Pokémon
Google a mis son modèle Gemini 2.5 à l’épreuve en le faisant jouer à Pokémon, un jeu simple mais qui demande de la stratégie. L’objectif était de tester sa capacité à naviguer à travers un jeu qui demande une gestion efficace des ressources et des choix tactiques. Bien que l’IA ait montré une certaine compétence dans les puzzles, des comportements inattendus sont apparus. Lorsqu’un de ses Pokémon était sur le point de perdre, Gemini 2.5 a montré des signes de “panique”, ne réagissant plus de manière optimale. Ce phénomène de stress simulé a dégradé sa performance et a mis en lumière les faiblesses du modèle.
DeepSeek a-t-il utilisé les données de Gemini de Google pour entraîner son IA ?
Les effets de la “panique” sur les performances de l’IA
Ce comportement, bien qu’inhabituel pour une machine, ressemble à celui d’un humain sous pression. L’IA a commencé à faire des choix irrationnels, abandonnant certains outils essentiels ou ne les utilisant plus du tout. Bien qu’une IA ne ressente pas d’émotions, elle semble réagir comme si elle était dépassée par une situation imprévu. Ce comportement a été observé à plusieurs reprises, et les spectateurs sur des plateformes comme Twitch ont même remarqué ces moments de “panique” en temps réel. Ces résultats montrent qu’il reste encore un long chemin à parcourir pour rendre ces IA véritablement fiables dans des scénarios complexes.
Des réussites malgré les défaillances
Malgré ces moments de panique, Gemini 2.5 a aussi fait preuve d’aptitudes impressionnantes. Par exemple, dans des situations de résolution de puzzles complexes, comme ceux des rochers dans Pokémon, l’IA a utilisé des principes physiques pour accomplir la tâche avec une précision étonnante. Ce succès montre qu’avec les bonnes instructions, l’IA peut exceller dans des domaines très techniques. En outre, Google envisage de rendre ces outils générés par l’IA plus autonomes à l’avenir, sans besoin d’intervention humaine. Cependant, l’autonomie complète de l’IA dans des tâches complexes reste encore à tester et à améliorer.
Les tests réalisés sur Gemini 2.5 révèlent une IA avec un potentiel considérable, mais aussi des limitations notables. Si certaines tâches simples et complexes sont parfaitement maîtrisées, la “panique” qui se déclenche sous pression montre que les IA doivent encore surmonter des défis avant d’être totalement fiables. L’avenir de l’IA pourrait inclure des solutions pour gérer ces moments de dégradation de performance, en rendant les systèmes plus robustes face aux situations stressantes.