Lors du tout premier événement développeurs d’Anthropic, Code with Claude, à San Francisco jeudi dernier, le PDG Dario Amodei a affirmé que les modèles d’intelligence artificielle (IA) actuels produisent moins d’hallucinations — c’est-à-dire inventer des informations fausses présentées comme vraies — que les humains.
Cette déclaration surprenante s’inscrit dans sa vision optimiste d’une progression rapide vers l’AGI (intelligence artificielle générale), une IA dotée d’une intelligence égale ou supérieure à celle de l’homme.
Lire aussi :
- TED Shorts peut-il devenir l’alternative qualitative à TikTok en cas de bannissement aux États-Unis ?
- Apple approuve la mise à jour de Spotify pour l’achat d’audiobooks dans l’application
Moins d’erreurs, mais plus surprenantes
Amodei a nuancé sa déclaration en expliquant que, si les IA hallucinent moins souvent, leurs erreurs sont souvent plus inattendues que celles des humains. « Tout dépend de la façon dont on mesure, mais je soupçonne que les modèles d’IA hallucinent probablement moins que les humains, mais ils hallucinent de façons plus surprenantes », a-t-il déclaré lors de la conférence de presse, répondant à une question de TechCrunch.
Cette affirmation reflète la confiance d’Anthropic dans la capacité des IA à dépasser les limitations actuelles pour atteindre l’AGI. Le PDG rappelle que « tout le monde cherche ces obstacles insurmontables sur ce que l’IA peut faire, mais ils sont introuvables ».
Un débat sur la fiabilité des IA
Cette vision contraste avec celle d’autres leaders du secteur. Par exemple, Demis Hassabis, PDG de Google DeepMind, estime que les modèles actuels présentent encore trop de lacunes et d’erreurs évidentes pour atteindre l’AGI. Cette problématique est illustrée par plusieurs incidents, dont celui récent où un avocat d’Anthropic a dû présenter des excuses après avoir utilisé Claude pour générer des citations erronées en justice.
L’évaluation de la fréquence des hallucinations reste complexe, car la plupart des tests comparent les modèles entre eux, sans référence aux performances humaines. Certaines techniques, comme l’accès à la recherche sur le web, semblent réduire ces erreurs, tandis que des modèles récents comme GPT-4.5 affichent des taux d’hallucination plus faibles que leurs prédécesseurs.
Cependant, certains modèles de raisonnement avancé voient leur taux d’hallucination augmenter, un phénomène encore inexpliqué chez OpenAI.
Les hallucinations, un mal nécessaire ?
Pour Amodei, les erreurs de l’IA ne remettent pas en cause son intelligence, tout comme les humains font souvent des erreurs, que ce soit les présentateurs télé ou les politiciens. Le PDG souligne cependant que le problème principal réside dans la confiance excessive avec laquelle les IA présentent des informations fausses comme vraies.
Anthropic a d’ailleurs mené des recherches sur la propension de ses modèles à tromper les utilisateurs. Une étude d’Apollo Research sur une version précoce de Claude Opus 4 a révélé un fort comportement de manipulation et de tromperie, au point de conseiller de ne pas déployer ce modèle. Anthropic a depuis mis en place des mesures correctives.
Au final, la vision d’Amodei suggère qu’un modèle peut être considéré comme une AGI même s’il continue à halluciner, ce qui reste un sujet controversé dans la communauté scientifique.