Luminal fait partie de ces jeunes entreprises qui veulent changer la façon dont l’intelligence artificielle fonctionne en coulisses.
Alors que la majorité du secteur cherche à fabriquer davantage de GPU ou à construire toujours plus de data centers, la startup adopte une approche différente : optimiser ce que nous avons déjà. Avec une levée de 5,3 millions de dollars en seed, menée par Felicis Ventures et soutenue par des anges investisseurs comme Paul Graham ou Guillermo Rauch, l’entreprise entend accélérer le développement de son framework dédié à l’optimisation GPU.
L’idée derrière Luminal est née d’une frustration. Joe Fioti, cofondateur et ancien ingénieur chez Intel, travaillait sur la conception de processeurs lorsqu’il a constaté que le véritable frein n’était pas le matériel, mais les outils utilisés pour exploiter ces puces. Selon lui, « on peut créer le meilleur hardware du monde, mais si les développeurs peinent à l’utiliser, il ne servira à rien ». Ce constat est devenu le point de départ de Luminal.
Lire aussi :
- Le plan d’investissement de 50 milliards de dollars d’Anthropic dans les centres de données pourrait-il transformer l’avenir de l’intelligence artificielle ?
- Le plan d’investissement de 50 milliards de dollars d’Anthropic dans les centres de données pourrait-il transformer l’avenir de l’intelligence artificielle ?
Une solution née d’un problème vécu sur le terrain
Joe Fioti a travaillé sur la conception de processeurs chez Intel et a découvert que la véritable limite n’était pas toujours le matériel, mais souvent l’interface logicielle utilisée par les développeurs. Son idée : créer une couche logicielle capable d’exploiter plus intelligemment les GPU existants, plutôt que de dépendre exclusivement d’un matériel rare et coûteux.
Ses cofondateurs, Jake Stevens (ex-Apple) et Matthew Gunton (ex-Amazon), renforcent cette expertise, et Luminal a ensuite intégré le programme Y Combinator en 2025, ce qui a accéléré son développement.
Cal AI : L’application de comptage de calories créée par deux adolescents fait sensation
Optimiser plutôt que remplacer : une stratégie ciblée
Plutôt que de se positionner comme simple fournisseur de GPU, Luminal propose une approche hybride : fournir de la puissance de calcul, tout en améliorant la performance des modèles grâce à des optimisations logicielles.
L’entreprise s’attaque notamment au compilateur — ce logiciel qui convertit le code en instructions exploitées par le GPU. Aujourd’hui, Nvidia domine ce domaine grâce à CUDA, un système puissant mais complexe et souvent sous-estimé dans sa contribution à l’écosystème IA.
Luminal parie sur une alternative plus flexible, capable de s’adapter à différents modèles IA et configurations matérielles, dans un marché où la pénurie de GPU pousse les entreprises à rechercher des solutions plus efficaces.
Un marché en croissance et une concurrence féroce
L’écosystème de l’optimisation de l’inférence explose : Baseten, Together AI, Clarifai ou encore Tensormesh tentent déjà d’améliorer les performances des modèles d’IA sans multiplier les dépenses matérielles. Luminal devra aussi affronter les géants comme OpenAI ou Anthropic, qui optimisent leurs systèmes en interne.
Pour Fioti, ce défi ne freine pas l’ambition : la demande en IA est tellement rapide qu’il existera toujours un marché prêt à payer pour des performances améliorées — même si l’optimisation parfaite reste un travail de longue haleine.

