Le PDG d’Anthropic, Dario Amodei, a récemment publié un essai dans lequel il souligne la profonde ignorance des chercheurs sur le fonctionnement interne des modèles d’intelligence artificielle.
En dépit des avancées impressionnantes de ces systèmes, Amodei révèle que nous avons encore très peu de compréhension sur la façon dont ces modèles arrivent à leurs conclusions. Dans son essai intitulé L’Urgence de l’Interprétabilité, il pose un défi ambitieux : rendre ces modèles plus transparents d’ici 2027. L’objectif est de parvenir à une compréhension détaillée des décisions prises par les intelligences artificielles, afin de les rendre plus sûres et plus responsables.
Lire aussi :
- ChatGPT intègre les articles du Washington Post : une collaboration qui pourrait changer l’accès à l’information
- Comment l’usage de l’IA pour la censure des contenus sensibles pourrait-il affecter la liberté de création et d’expression en Chine ?
L’appel à la transparence
Amodei exprime son inquiétude croissante à propos du manque de compréhension concernant les décisions des modèles d’IA, particulièrement avec la montée en puissance de l’intelligence artificielle générale (AGI). Il met en garde contre les risques de déployer des systèmes autonomes puissants sans pouvoir expliquer leurs processus décisionnels. Dans son essai, il évoque les limitations actuelles : “Lorsqu’un système d’IA générative résume un document financier, nous n’avons aucune idée précise de pourquoi il choisit certains mots ou fait des erreurs malgré sa précision générale.” Pour Amodei, cela représente un danger, d’autant plus que ces systèmes seront appelés à jouer un rôle central dans des domaines cruciaux comme l’économie, la technologie et la sécurité nationale.
Claude débarque à l’université : Anthropic lance un plan d’abonnement pour l’enseignement supérieur
Les premiers progrès dans la recherche sur l’interprétabilité
Anthropic se distingue par ses recherches sur l’interprétabilité des modèles d’IA, un domaine qui cherche à percer le « black box » de ces technologies. Récemment, l’entreprise a fait des avancées en matière de traçabilité des processus mentaux des modèles d’IA, qu’ils appellent des « circuits ». Ces circuits permettent de mieux comprendre comment un modèle résout un problème, par exemple en identifiant les états associés à des villes aux États-Unis. Bien que l’entreprise n’ait découvert que quelques-uns de ces circuits, elle estime qu’il en existe des millions. Pour Amodei, l’ambition est claire : parvenir à effectuer des « IRM » des modèles d’IA, permettant ainsi de diagnostiquer des problèmes comme les biais ou l’opacité décisionnelle.
Vers une régulation de l’IA
Dans son essai, Amodei appelle non seulement à un effort accru d’interprétabilité au sein des entreprises comme OpenAI et Google DeepMind, mais également à des régulations légères des gouvernements pour encourager la recherche en matière de sécurité et de transparence des IA. Il suggère que les gouvernements imposent des exigences de divulgation des pratiques de sécurité, ce qui permettrait une meilleure gestion des risques tout en maintenant l’innovation. Amodei se montre également favorable à des contrôles à l’exportation sur les puces destinées à la Chine, afin de limiter une course aux armements technologiques incontrôlée.
Avec ce plaidoyer pour plus de transparence et une meilleure compréhension des IA, Anthropic cherche à mener un changement dans l’industrie pour garantir des modèles plus sûrs et plus responsables.