Noam Brown, responsable de la recherche en IA de raisonnement chez OpenAI, estime que certaines avancées en intelligence artificielle auraient pu voir le jour 20 ans plus tôt si les chercheurs avaient identifié les bonnes approches et algorithmes.
Lors d’un panel à la conférence GTC de Nvidia à San Jose, il a souligné que l’un des freins majeurs à cette avancée était l’ignorance des méthodes adaptées pour développer des modèles de raisonnement.
Lire aussi :
- ReactWise révolutionne la fabrication de médicaments avec l’IA : une avancée majeure pour l’industrie pharmaceutique ?
- TikTok lance “Security Checkup” : un nouvel outil pour renforcer la sécurité des comptes utilisateurs
Une avancée freinée par une approche incomplète
Lors de son intervention, Brown a évoqué son travail sur les IA spécialisées dans les jeux, notamment Pluribus, un modèle capable de battre des joueurs professionnels de poker. Contrairement aux approches traditionnelles basées sur la puissance brute de calcul, Pluribus a été conçu pour raisonner avant d’agir, une approche qui, selon lui, aurait pu émerger bien plus tôt avec une meilleure compréhension des mécanismes de réflexion humaine appliqués aux IA.
C’est cette même logique qui a conduit à la conception de o1, un modèle d’OpenAI basé sur l’inférence en temps d’exécution (test-time inference). Ce concept permet à l’IA d’adapter son raisonnement en fonction de chaque requête, plutôt que de se reposer uniquement sur des bases de données préexistantes. Cette capacité à “penser” en temps réel rend ces modèles plus précis et fiables, notamment dans les domaines scientifiques et mathématiques.
L’avenir de la recherche académique en IA
Interrogé sur la place de la recherche académique face à des laboratoires privés comme OpenAI, Brown a reconnu que la montée en puissance des besoins en puissance de calcul rend la tâche plus difficile aux universités. Toutefois, il estime que le monde académique peut toujours avoir un impact significatif en explorant des aspects moins dépendants des infrastructures coûteuses, comme l’architecture des modèles.
Il plaide également pour une collaboration accrue entre les laboratoires de recherche et les institutions académiques, affirmant que les grandes entreprises de l’IA scrutent attentivement les publications scientifiques. “Si une recherche académique démontre un potentiel à grande échelle, nous l’explorons systématiquement dans nos laboratoires”, a-t-il affirmé.
Le besoin urgent d’améliorer les benchmarks en IA
Brown a également mis en avant l’importance des benchmarks dans l’évolution de l’intelligence artificielle. Il a souligné que les tests actuels sont souvent mal adaptés et ne mesurent pas toujours les capacités réelles des modèles sur des tâches pratiques. “L’état des benchmarks en IA est très mauvais, et c’est un domaine où la recherche académique pourrait jouer un rôle clé”, a-t-il déclaré.
Le partenariat entre Microsoft et OpenAI échappe à une enquête du régulateur britannique
En parallèle, les coupes budgétaires décidées par l’administration américaine dans les subventions scientifiques inquiètent la communauté de l’IA. Des experts comme Geoffrey Hinton, lauréat du prix Nobel, ont critiqué ces mesures, estimant qu’elles pourraient freiner le développement de la recherche en intelligence artificielle, tant aux États-Unis qu’à l’étranger.