On ne sait pas ce que Sam Altman, CEO d’OpenAI, met dans son café, mais visiblement, ça décuple les ambitions. Il a balancé sur X qu’il veut équiper son entreprise de 100 millions de puces IA.
Depuis un peu plus de deux ans, l’IA est devenue le théâtre d’ambitions hors normes. Le grand objectif est de créer l’AGI, un modèle capable de penser comme un humain… voire mieux.
Cependant, un tel sommet exige des moyens colossaux. À savoir, des infrastructures, des mégawatts, et surtout des millions de GPU. Et dans cette course effrénée, Sam Altman continue de tracer sa voie.
we will cross well over 1 million GPUs brought online by the end of this year!
— Sam Altman (@sama) July 20, 2025
very proud of the team but now they better get to work figuring out how to 100x that lol
Que vaut 100 millions de GPU ?
Pour bien comprendre l’enjeu, il faut revenir à la notion de GPU – ou graphics processing unit – elle-même. Initialement conçues pour le traitement des images et des vidéos, ces puces sont devenues les piliers du calcul parallèle dans le domaine de l’IA.
Contrairement aux CPU, qui traitent les données de manière séquentielle, les GPU sont à même d’effectuer des milliers de calculs simultanément. Et c’est précisément cette capacité qui les rend indispensables à l’entraînement et à l’exécution des grands modèles de langage (LLM).
Ce qu’il faut savoir c’est que disposer d’un million de GPU – ce qui est actuellement le cas d’OpenAI – équivaut déjà à un gigantesque réseau de neurones artificiels. Le genre capable de générer du texte, analyser des images, comprendre la voix, et bien plus encore.
Alors si OpenAI parvenait à en regrouper cent fois plus, l’impact serait monumental. Car primo, en termes énergétiques, une telle infrastructure nécessiterait 75 gigawatts. Soit quasiment les trois quarts de l’électricité consommée par le Royaume-Uni.
Et secundo, en termes financiers, les coûts estimés pour ce parc dépasseraient les 3 000 milliards de dollars. Cela, sans compter les frais liés à la maintenance, au refroidissement, ou à l’hébergement de ces infrastructures.
100 millions de puces IA : Quel intérêt pour les utilisateurs ?
Eh bien, grâce à une telle puissance, la rapidité et la fluidité des échanges avec les outils d’OpenAI, à commencer par ChatGPT, seront largement améliorées. Réponses quasi instantanées, capacité à exécuter des tâches complexes, compréhension contextuelle plus fine, mémoire élargie, raisonnement approfondies…
Personnellement, je suis déjà enthousiaste à cette idée. Cela dit, cette montée en puissance s’accompagnera de répercussions, c’est certain. Hausse des prix des abonnements, par exemple.
Ou encore, ralentissement potentiel du déploiement de certaines fonctionnalités si l’accès aux GPU venait à se raréfier. Sans oublier les conséquences écologiques, inévitables, liées à la consommation massive d’énergie.
Certes, pour le moment, nous ne sommes sûrs de rien. D’autant plus que le chiffre a été accompagné d’un « mdr » dans l’annonce. Toutefois, difficile de penser que ce projet est une simple provocation.
D’ailleurs, l’entreprise prévoit déjà de franchir la barre du million de GPU d’ici la fin 2025.
- Partager l'article :