Les modรจles d’intelligence artificielle ont fait des progrรจs impressionnants ces derniรจres annรฉes, mais une รฉtude rรฉcente menรฉe par des chercheurs de plusieurs institutions renommรฉes, dont Cornell et l’Universitรฉ de Washington, met en lumiรจre un problรจme persistant : les hallucinations.
Ces erreurs, oรน l’IA gรฉnรจre des informations incorrectes ou inventรฉes, sont omniprรฉsentes, mรชme dans les modรจles les plus avancรฉs comme GPT-4o de OpenAI ou Gemini de Google. L’รฉtude a รฉvaluรฉ la capacitรฉ de ces modรจles ร fournir des rรฉponses factuelles sur une variรฉtรฉ de sujets allant de la santรฉ ร la gรฉographie, et a conclu qu’aucun modรจle ne pouvait garantir une fiabilitรฉ totale.
Lire aussi :
- Quelles sont les implications lรฉgales pour X suite ร l’utilisation non consentรฉe des donnรฉes des utilisateurs europรฉens pour entraรฎner ses modรจles d’IA ?
- Quelles sont les nouvelles fonctionnalitรฉs du Titan Image Generator v2 et comment ce modรจle amรฉliore-t-il l’expรฉrience utilisateur ?
Pourquoi certains modรจles hallucinent-ils moins que d’autres ?
L’รฉtude a rรฉvรฉlรฉ que les modรจles qui hallucinent le moins adoptent une stratรฉgie diffรฉrente : ils refusent tout simplement de rรฉpondre aux questions pour lesquelles ils n’ont pas une confiance suffisante dans leur rรฉponse. Par exemple, Claude 3 Haiku, un modรจle d’Anthropic, a refusรฉ de rรฉpondre ร environ 28 % des questions posรฉes, prรฉfรฉrant ne rien dire plutรดt que de risquer de donner une rรฉponse incorrecte. Cette approche, bien que prudente, soulรจve la question de savoir si les utilisateurs accepteront de faire face ร des refus frรฉquents de la part d’une IA, ou s’ils prรฉfรฉreront des modรจles qui tentent de rรฉpondre ร tout, mรชme au risque de se tromper.
Les dรฉfis de la rรฉduction des hallucinations : Une tรขche complexe
La rรฉduction des hallucinations dans les modรจles d’IA est un dรฉfi majeur. Malgrรฉ les efforts des entreprises comme OpenAI et Google pour amรฉliorer la prรฉcision de leurs modรจles, les chercheurs soulignent que ces amรฉliorations sont souvent limitรฉes. Une des raisons est que les donnรฉes sur lesquelles ces modรจles sont entraรฎnรฉs contiennent parfois elles-mรชmes des erreurs ou des informations contradictoires. Les chercheurs suggรจrent que l’une des solutions pourrait รชtre d’intรฉgrer davantage d’experts humains dans le processus de validation des rรฉponses gรฉnรฉrรฉes par l’IA, afin de minimiser les erreurs.
Vers une intelligence artificielle plus fiable : Les pistes ร explorer
Bien que l’รฉlimination complรจte des hallucinations semble hors de portรฉe ร court terme, plusieurs pistes peuvent รชtre explorรฉes pour rendre les modรจles d’IA plus fiables. L’une d’elles consiste ร dรฉvelopper des outils de vรฉrification des faits plus avancรฉs qui pourraient รชtre intรฉgrรฉs directement dans les modรจles. De plus, l’amรฉlioration de la transparence dans le processus de formation des modรจles pourrait aider ร identifier les sources d’erreurs potentielles avant qu’elles ne soient amplifiรฉes par l’IA. Enfin, les entreprises doivent trouver un รฉquilibre entre la prudence et la capacitรฉ ร rรฉpondre aux questions des utilisateurs, afin de maintenir la confiance tout en offrant un service utile.