Salesforce a récemment introduit Einstein Copilot, un chatbot destiné aux entreprises, promettant une réduction significative des hallucinations, ces réponses fausses ou non sensiques couramment générées par d’autres IA de sociétés telles que Google, Meta, Anthropic, et OpenAI.
Lors du Salesforce World Tour à New York, Patrick Stokes, vice-président exécutif du marketing produit chez Salesforce, a souligné que contrairement aux autres chatbots, Einstein Copilot est beaucoup moins susceptible de produire de telles erreurs. Ce chatbot se distingue par son utilisation des données propres à chaque entreprise, allant des feuilles de calcul aux documents écrits stockés sur diverses plateformes, y compris celle de Salesforce, Google Cloud, et Amazon Web Services.
Lire aussi :
- Copilot Enterprise de GitHub : Une nouvelle ère pour le développement logiciel en entreprise
- A quoi faut-il s’attendre du Google Cloud Next 2024 avec l’intelligence artificielle au coeur de l’innovation ?
La promesse d’une IA moins sujette aux hallucinations
Les dirigeants de Salesforce affirment qu’Einstein Copilot est moins susceptible de générer des informations fausses ou non sensées, un défaut fréquent chez d’autres IA développées par des géants technologiques tels que Google, Meta et OpenAI. Patrick Stokes, vice-président exécutif du marketing produit chez Salesforce, a souligné lors du Salesforce World Tour à New York, que ce chatbot est un menteur moins convaincant, grâce à son utilisation unique des données de l’entreprise. En intégrant directement les données des feuilles de calcul et des documents écrits stockés sur diverses plateformes comme Google Cloud et AWS, Einstein Copilot fournit des réponses plus ancrées dans la réalité concrète de l’entreprise.
Microsoft Défie ChatGPT avec Copilot Pro La Guerre des Titans Commence
Des technologies protectrices contre les défaillances de l’IA
Einstein Copilot se distingue également par son approche préventive envers les hallucinations. Avant de transmettre une requête à un modèle de langage comme GPT-4 ou Gemini de Google, le système s’assure de la véracité des données impliquées. Stokes admet toutefois que nous ne pourrons probablement jamais empêcher complètement les hallucinations. C’est pour cela que le chatbot est équipé d’une fonction de détection d’hallucinations et recueille en temps réel les retours des utilisateurs pour améliorer continuellement la précision des réponses fournies.
Un avenir réaliste pour les chatbots
Malgré les progrès, les hallucinations restent un défi majeur pour les IA, exacerbé par l’utilisation massive de données souvent biaisées ou inexactes provenant de sources douteuses comme Reddit. Salesforce mise sur une approche transparente pour mitiger ce problème, reconnaissant que, tout comme les réseaux informatiques ne seront jamais totalement inviolables, les hallucinations des IA sont probablement inévitables. Mais avec des mesures de sécurité renforcées et une intégration intelligente des données, Einstein Copilot pourrait bien être le chatbot le plus fiable sur le marché actuel. Seul le temps nous dira si cette promesse tiendra.
Ce nouvel outil, au-delà de ses fonctionnalités techniques, invite à une réflexion plus large sur l’avenir des technologies d’IA en entreprise et leur capacité à interagir de manière sécurisée et efficace avec les données privées sans compromettre la qualité ni la vérité de l’information.