Savez-vous que parler à ChatGPT pourrait bien avoir des conséquences néfastes pour notre planète ? Derrière chaque réponse instantanée, une quantité d’eau précieuse est consommée pour refroidir les puissants serveurs qui alimentent cette IA. Alors, comment une simple question à un chatbot contribue-t-elle à l’épuisement de nos ressources ? Voici ce que vous devez savoir.
Depuis son lancement en 2022, le chatbot d’OpenAI a rapidement pris place dans nos vies. Toutes les semaines, plus de 200 millions de personnes l’utilisent. ChatGPT semble être l’assistant idéal dont tout le monde a besoin pour répondre à des questions. Et cela, en générant des textes ou même en créant des images.
Pourtant, la popularité de ChatGPT a un prix, et c’est notre planète qui paie fort. Apparemment, chaque requête soumise à l’IA nécessite une énorme quantité d’énergie et d’eau. Une étude américaine révèle même que cette technologie, en pleine expansion, pourrait accentuer le changement climatique si son usage n’est pas mieux régulé.
La soif insatiable de ChatGPT. Notre planète en danger ?
Les universités de Californie, du Colorado et du Texas ont donc mené une étude sur l’impact environnemental des technologies d’IA. Résultat ? Un chatbot comme ChatGPT a besoin d’environ un demi-litre d’eau pour répondre à chaque série de 10 à 50 questions.
Ainsi, une simple conversation sur ChatGPT équivaut à vider une bouteille d’eau. Trois bouteilles de 500 ml seraient donc nécessaires pour générer 100 mots. Bien que cela puisse paraître insignifiant, ces chiffres prennent une autre dimension lorsqu’on considère que ChatGPT compte environ 180 millions d’utilisateurs mensuels.
D’après la même étude, entraîner le modèle GPT-3 requiert à peu près 700 mètres cubes d’eau. Ce qui veut dire que les versions plus récentes demanderont donc encore plus de ressources.
Pourquoi les Data centers consomment beaucoup d’eau ?
On sait tous que les centres de données sont indispensables pour faire fonctionner des IA comme ChatGPT. Celles-ci adoptent des systèmes de refroidissement pour éviter la surchauffe des serveurs. Et c’est là que l’eau entre en jeu. Celle-ci régule alors la température des supercalculateurs qui traitent des millions de requêtes simultanées. Ainsi, ces dispositifs évaporent de l’eau froide, qui malheureusement ne peut plus être récupérée.
Microsoft, le partenaire clé de la startup derrière ChatGPT, a signalé une hausse de 34 % de sa consommation d’eau entre 2021 et 2022. C’est soit l’équivalent de 2 500 piscines olympiques. Cette augmentation a-t-elle un rapport à l’essor des technologies d’IA ? Oui, puisque ces dernières demandent de grandes quantités d’eau pour fonctionner efficacement.
Shaolei Ren, chercheur à l’Université de Californie à Riverside a essayé de calculer l’impact environnemental des produits d’IA générative comme ChatGPT. Il explique que « la majeure partie des gens ne sont pas au courant des ressources dont ChatGPT a besoin pour fonctionner. Si personne ne le réalise, on ne pourra jamais aider à la conservation de ces ressources ».
L’IA générative : un drain caché sous les réserves d’eau
Microsoft s’est aussi engagé à fournir une immense puissance de calcul pour former ses futurs modèles d’IA. Son partenariat avec OpenAI implique donc la création de vastes centres de données, comme ceux installés dans l’Iowa.
Cet État offre de grands espaces et un climat favorable. Situées dans le bassin versant des rivières Raccoon et Des Moines, ces infrastructures prélèvent chaque jour des milliers de litres d’eau dans les nappes phréatiques. Par conséquent, plus nous interagissons avec des IA comme ChatGPT et plus nous puisons dans les ressources en eau de cette région. Cela exacerbe encore plus la sécheresse historique de cette dernière.
Les chercheurs concluent cette étude en soulignant les tensions liées à la consommation d’eau provoquée par l’utilisation de l’IA générative aux États-Unis. Là où 44 millions de personnes ont un accès « inadéquat » à l’eau potable.
Par ailleurs, cette situation avec ChatGPT n’est qu’un exemple parmi tant d’autres. L’étude (toujours la même), prouve également que Meta a utilisé 22 millions de litres d’eau pour entraîner son modèle Llama 3. À titre de comparaison, cette quantité d’eau suffirait à cultiver 2 000 kg de riz. Ce qui correspond à la consommation annuelle de riz de 164 Américains.
L’IA générative comme ChatGPT évolue à une vitesse grand V, c’est pourquoi il est essentiel de considérer son impact sur l’environnement. Elle améliore et facilite notre quotidien, certes, mais ces bénéfices ne justifient point son coût écologique.
Et vous, comment voyez-vous les initiatives mises en place par ces entreprises (comme Microsoft) pour réduire leur empreinte écologique ? Selon vous, est-ce suffisant ou avez-vous d’autres solutions pour minimiser ces effets néfastes de l’IA comme ChatGPT sur notre planète ? Partagez vos idées en commentaire !
- Partager l'article :