L’intelligence artificielle est souvent pointée du doigt pour sa consommation énergétique, et ChatGPT ne fait pas exception.
De nombreuses études ont estimé que chaque requête envoyée à ChatGPT consommerait environ 3 watt-heures d’électricité, soit dix fois plus qu’une recherche Google. Toutefois, une nouvelle analyse menée par Epoch AI, un institut de recherche indépendant, remet en question cette idée et apporte des chiffres plus précis.
Lire aussi :
- Les Émirats arabes unis investissent des milliards pour un centre de données IA en France
- OpenAI va-t-il révolutionner l’IA avec des robots autonomes et des interfaces connectées ?
Une consommation revue à la baisse
Selon les recherches d’Epoch AI, l’énergie réellement consommée par ChatGPT est bien inférieure à ce qui était initialement supposé. En prenant pour référence le dernier modèle de langage GPT-4o d’OpenAI, l’institut estime qu’une requête moyenne consomme environ 0,3 watt-heure. Ce chiffre est largement inférieur aux estimations précédentes et place la consommation d’énergie de ChatGPT au même niveau que certains appareils domestiques de faible puissance.
L’étude souligne également que les recherches antérieures surestimaient l’impact énergétique de l’IA en se basant sur des technologies obsolètes et des hypothèses incorrectes. Par exemple, l’hypothèse selon laquelle OpenAI utilisait des puces plus anciennes et moins efficaces a conduit à des chiffres erronés sur la consommation énergétique réelle du chatbot.
L’impact écologique des centres de données
Même si la consommation énergétique par requête est plus faible que prévu, l’augmentation du nombre d’utilisateurs et l’essor de l’IA en général posent des défis environnementaux. Les centres de données nécessaires au fonctionnement de ChatGPT et d’autres IA consomment d’énormes quantités d’électricité, ce qui pousse les entreprises technologiques à rechercher des sources d’énergie plus durables.
Une étude récente prévoit qu’en 2030, l’entraînement des modèles d’IA avancés pourrait nécessiter l’équivalent de la puissance de huit réacteurs nucléaires. OpenAI, Microsoft et d’autres entreprises investissent massivement dans de nouvelles infrastructures pour répondre à cette demande croissante, soulevant des inquiétudes sur leur impact environnemental.
Des modèles d’IA de plus en plus gourmands
Les avancées technologiques rendent les modèles d’IA toujours plus puissants, mais aussi plus exigeants en ressources. Un nouveau type d’IA, appelé modèle de raisonnement, est en cours de développement. Contrairement à GPT-4o, qui répond quasi instantanément aux requêtes, ces modèles effectuent une analyse plus approfondie et prennent plusieurs secondes, voire minutes, pour formuler une réponse plus complexe.
Ce processus nécessite une puissance de calcul plus élevée et donc une plus grande consommation d’énergie. OpenAI a tenté de limiter cet impact avec des modèles plus économes comme o3-mini, mais la croissance rapide de l’IA pourrait largement compenser ces gains d’efficacité.
En quoi PromptLayer se distingue-t-il des autres outils de gestion de prompts pour l’IA ?
Face à ces enjeux, certaines pratiques peuvent permettre d’optimiser l’utilisation de l’IA pour réduire son impact écologique. L’une des solutions consiste à privilégier des modèles plus légers et moins gourmands en calcul, comme GPT-4o-mini. De plus, utiliser l’IA uniquement lorsque cela est nécessaire peut également contribuer à limiter la consommation énergétique globale. Toutefois, à mesure que l’IA devient de plus en plus intégrée à notre quotidien, il devient crucial de concilier innovation et responsabilité environnementale.