Nvidia, leader incontesté du secteur des puces pour l’intelligence artificielle (IA), a récemment annoncé un bénéfice net de plus de 19 milliards de dollars au dernier trimestre.
Cependant, cette performance exceptionnelle n’a pas totalement convaincu les investisseurs quant à la pérennité de sa croissance rapide. Lors d’un appel aux résultats, son PDG, Jensen Huang, a répondu à des questions sur l’adaptation de l’entreprise face à des méthodes émergentes d’amélioration des modèles IA, comme le test-time scaling.
Lire aussi :
- Quels sont les enjeux juridiques et éthiques soulevés par l’utilisation des contenus protégés par l’IA, comme dans le cas de la plainte d’ANI contre OpenAI ?
- Comment les puces analogiques de Sagence pourraient-elles transformer le marché de l’intelligence artificielle tout en réduisant la consommation énergétique ?
Le test-time scaling : Une révolution en cours ?
Le test-time scaling, popularisé par le modèle o1 d’OpenAI, consiste à améliorer les réponses des modèles IA en leur allouant davantage de temps et de puissance de calcul lors de la phase d’inférence. Contrairement à l’entraînement, cette méthode optimise les performances après que l’utilisateur a soumis une requête. Jensen Huang a qualifié cette approche de développement des plus excitants et de nouvelle loi d’échelle.
Ce changement pourrait transformer la manière dont les puces Nvidia sont utilisées, les rendant encore plus essentielles pour répondre aux besoins croissants en IA. Cependant, cela ouvre aussi la porte à une concurrence accrue, avec des startups comme Groq et Cerebras qui développent des puces d’inférence ultrarapides.
Pourquoi Elon Musk accuse-t-il OpenAI d’avoir trahi sa mission initiale et d’avantager Microsoft ?
Un équilibre entre formation et inférence
Actuellement, Nvidia domine le marché de la formation des modèles IA, mais Huang a reconnu que l’avenir pourrait voir un basculement vers l’inférence. Cela signifie que davantage de personnes utiliseront des modèles IA dans leur vie quotidienne, nécessitant des solutions puissantes et fiables. Il a souligné que Nvidia reste aujourd’hui la plus grande plateforme d’inférence au monde, grâce à sa fiabilité et à sa capacité d’innovation.
Cependant, certains analystes, dont ceux de Andreessen Horowitz, ont averti que les méthodes actuelles de pré-entraînement des modèles commencent à montrer des rendements décroissants. Malgré cela, Huang reste confiant, affirmant que l’ajout de données et de calculs pendant le pré-entraînement continue d’offrir des améliorations significatives.
Un avenir prometteur pour Nvidia ?
Avec une action ayant grimpé de plus de 180 % en 2024, Nvidia continue de surfer sur la vague de l’IA. Pour Huang, le véritable succès de l’IA sera atteint lorsque l’inférence deviendra omniprésente, transformant des secteurs entiers. En misant sur son écosystème CUDA et ses architectures éprouvées, Nvidia espère maintenir son avantage concurrentiel, même dans un environnement de plus en plus compétitif.
Pourquoi Elon Musk accuse-t-il OpenAI d’avoir trahi sa mission initiale et d’avantager Microsoft ?
Ainsi, malgré les défis à venir, Jensen Huang reste convaincu que Nvidia est bien positionnée pour jouer un rôle central dans l’évolution de l’IA.