GPT-5 impressionne par sa puissance, mais son appétit en électricité pourrait battre tous les records connus.
Selon l’Université de Rhode Island, GPT-5 consommerait environ 8,6 fois plus d’énergie que GPT-4. Cette estimation, bien que sujette à discussion, s’appuie sur des mesures croisées entre temps de réponse et puissance matérielle. Les chercheurs soulignent que GPT-5 pourrait atteindre 18,35 Wh par requête, contre 2,12 Wh pour GPT-4. Cela placerait le modèle d’OpenAI parmi les plus énergivores, derrière seulement l’o3 d’OpenAI et le modèle R1 de Deepseek.
Avec 2,5 milliards de requêtes quotidiennes, GPT-5 pourrait consommer près de 45 GWh d’électricité par jour. Pour illustrer, une telle demande énergétique équivaudrait à deux ou trois réacteurs nucléaires en activité continue. En d’autres termes, la puissance nécessaire suffirait à alimenter un petit pays pendant une journée entière. Cette situation pose la question de la durabilité énergétique d’une IA utilisée à grande échelle mondiale.
Des hypothèses matérielles encore incertaines
OpenAI n’ayant pas communiqué sur son infrastructure exacte, les chercheurs ont dû formuler plusieurs hypothèses. Ils pensent que GPT-5 tourne sur des systèmes Nvidia DGX H100 ou DGX H200 hébergés chez Microsoft Azure.
Le calcul inclut aussi les composants annexes comme processeurs, mémoire, stockage et systèmes de refroidissement. Des facteurs environnementaux comme l’efficacité énergétique (PUE) ou l’intensité carbone (CIF) sont également intégrés.
GPT-5 adopte une architecture dite « mixte d’experts », qui n’active pas tous les paramètres à chaque requête. Cette approche réduit la consommation lors de tâches simples, mais change radicalement pour les demandes complexes. En mode raisonnement prolongé, la dépense énergétique peut grimper de cinq à dix fois. Selon Shaolei Ren, certaines requêtes dépassent alors 40 Wh, contre une moyenne inférieure sur les tâches courtes.
Des chiffres qui pourraient évoluer rapidement
Les estimations publiées restent fragiles, surtout si OpenAI bascule vers du matériel plus rapide comme Blackwell. Ce dernier pourrait modifier considérablement le rapport entre puissance de calcul et consommation énergétique.
Les centres de données IA aux États–Unis entraînent déjà une hausse notable des factures d’électricité. Avec la prolifération de ces systèmes, certains analystes redoutent une aggravation de la pénurie énergétique mondiale.
Les implications pour les utilisateurs et développeurs
Pour certains, cette surconsommation énergétique pourrait influencer la manière d’utiliser ou de concevoir les modèles. Un choix stratégique pourrait être de réactiver ponctuellement des solutions plus sobres comme GPT-4o. Cela permettrait de limiter l’impact environnemental tout en maintenant un haut niveau de performance. Les développeurs pourraient alterner entre GPT-5 et GPT-4o selon les besoins précis des applications.
L’essor de l’IA amène à considérer non seulement les capacités, mais aussi l’empreinte énergétique. Les estimations de l’Université de Rhode Island, bien qu’imparfaites, mettent en lumière cette réalité incontournable.
Face à cette situation, certains acteurs du secteur pourraient réactiver l’usage ciblé de modèles type GPT-4o. Cela constituerait une réponse pragmatique pour concilier innovation et gestion responsable des ressources énergétiques.
- Partager l'article :

