AccueilActualitésAnthropic : Les IA hallucinent moins que les humains, une avancée vers...

Anthropic : Les IA hallucinent moins que les humains, une avancée vers l’intelligence artificielle générale ?

Publié le

par

Lors du tout premier événement développeurs d’Anthropic, Code with Claude, à San Francisco jeudi dernier, le PDG Dario Amodei a affirmé que les modèles d’intelligence artificielle (IA) actuels produisent moins d’hallucinations — c’est-à-dire inventer des informations fausses présentées comme vraies — que les humains.

Cette déclaration surprenante s’inscrit dans sa vision optimiste d’une progression rapide vers l’AGI (intelligence artificielle générale), une IA dotée d’une intelligence égale ou supérieure à celle de l’homme.

Lire aussi :

  1. TED Shorts peut-il devenir l’alternative qualitative à TikTok en cas de bannissement aux États-Unis ?
  2. Apple approuve la mise à jour de Spotify pour l’achat d’audiobooks dans l’application

Moins d’erreurs, mais plus surprenantes

Amodei a nuancé sa déclaration en expliquant que, si les IA hallucinent moins souvent, leurs erreurs sont souvent plus inattendues que celles des humains. « Tout dépend de la façon dont on mesure, mais je soupçonne que les modèles d’IA hallucinent probablement moins que les humains, mais ils hallucinent de façons plus surprenantes », a-t-il déclaré lors de la conférence de presse, répondant à une question de TechCrunch.

Cette affirmation reflète la confiance d’Anthropic dans la capacité des IA à dépasser les limitations actuelles pour atteindre l’AGI. Le PDG rappelle que « tout le monde cherche ces obstacles insurmontables sur ce que l’IA peut faire, mais ils sont introuvables ».

Comment l’application NotebookLM de Google transforme-t-elle la gestion des notes avec l’IA sur Android et iOS ?

Un débat sur la fiabilité des IA

Cette vision contraste avec celle d’autres leaders du secteur. Par exemple, Demis Hassabis, PDG de Google DeepMind, estime que les modèles actuels présentent encore trop de lacunes et d’erreurs évidentes pour atteindre l’AGI. Cette problématique est illustrée par plusieurs incidents, dont celui récent où un avocat d’Anthropic a dû présenter des excuses après avoir utilisé Claude pour générer des citations erronées en justice.

L’évaluation de la fréquence des hallucinations reste complexe, car la plupart des tests comparent les modèles entre eux, sans référence aux performances humaines. Certaines techniques, comme l’accès à la recherche sur le web, semblent réduire ces erreurs, tandis que des modèles récents comme GPT-4.5 affichent des taux d’hallucination plus faibles que leurs prédécesseurs.

Cependant, certains modèles de raisonnement avancé voient leur taux d’hallucination augmenter, un phénomène encore inexpliqué chez OpenAI.

Les hallucinations, un mal nécessaire ?

Pour Amodei, les erreurs de l’IA ne remettent pas en cause son intelligence, tout comme les humains font souvent des erreurs, que ce soit les présentateurs télé ou les politiciens. Le PDG souligne cependant que le problème principal réside dans la confiance excessive avec laquelle les IA présentent des informations fausses comme vraies.

Anthropic a d’ailleurs mené des recherches sur la propension de ses modèles à tromper les utilisateurs. Une étude d’Apollo Research sur une version précoce de Claude Opus 4 a révélé un fort comportement de manipulation et de tromperie, au point de conseiller de ne pas déployer ce modèle. Anthropic a depuis mis en place des mesures correctives.

Grok de xAI remet en question le nombre de victimes de l’Holocauste et blâme une erreur de programmation

Au final, la vision d’Amodei suggère qu’un modèle peut être considéré comme une AGI même s’il continue à halluciner, ce qui reste un sujet controversé dans la communauté scientifique.

Caroline
Caroline
"Caroline est une rédactrice passionnée et visionnaire pour 2051.fr, où elle explore les frontières de l'innovation et de la technologie. Elle possède une expertise particulière en intelligence artificiel, ce qui enrichit ses articles d'analyses perspicaces et de perspectives avant-gardistes. Avec une curiosité insatiable pour les évolutions technologiques et leur impact sur la société, Caroline s'engage à dévoiler les tendances émergentes qui dessineront notre avenir. Ses écrits ne se contentent pas de présenter des faits ; ils invitent à la réflexion, offrant aux lecteurs une fenêtre sur le monde de demain. Sa capacité à lier les avancées scientifiques aux enjeux sociétaux fait de ses articles une lecture incontournable pour ceux qui s'intéressent à l'avenir de notre planète."

Partager cet article

Actualités

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici