La préoccupante consommation d’énergie de l’IA: «Une question à ChatGPT consomme 10 fois plus qu’une recherche Google»
L’intelligence artificielle suscite de sérieux défis environnementaux. De récents chiffres traduisent la riche consommation de l’IA, friande d’eau et d’électricité. Un effet domino bientôt hors de contrôle? Peut-être, mais le cercle pourrait aussi être vertueux.
La consommation d’énergie de l’intelligence artificielle pourrait bientôt devenir un enjeu climatique majeur. L’explosion de l’IA dans le monde pousse déjà certains chercheurs à se pencher sur son impact environnemental. Et celui-ci semble considérable.
À raison de dix interactions par jour avec ChatGPT, une personne émettrait près d’une tonne de CO2 par an. L’utilisateur régulier de l’intelligence artificielle ferait dès lors bondir considérablement son empreinte carbone, puisqu’en moyenne, chaque individu émet entre quatre et neuf tonnes de CO2 par an, chiffre qui varie selon les études. Ainsi, la seule utilisation régulière d’un robot conversationnel représenterait la moitié de ce qu’une personne devrait émettre d’ici 2050 pour respecter l’accord de Paris.
Pourquoi l’IA est-elle énergivore?
«ChatGPT est énergivore en raison du nombre de paramètres qu’il doit évaluer. Lorsqu’une question lui est posée, les modèles les plus performants regroupent 400 milliards de paramètres. Ce qui requiert une puissance de calcul très intense», explique Pierre Schaus, professeur d’informatique à l’UCLouvain.
L’expert estime «qu’une requête à ChatGPT consomme dix fois plus qu’une recherche Google.» Alarmant? Oui, mais Pierre Schaus se veut toutefois résolument optimiste. «Ces statistiques vont évoluer. Les premiers ordinateurs créés consommaient aussi énormément pour réaliser des opérations simples, comme des calculs arithmétiques. Désormais, avec les smartphones, on détient toutes et tous des mini ordinateurs dans nos poches, qui tiennent une journée sans dépenser beaucoup d’énergie.»
Les modèles d’IA les plus performants regroupent 400 milliards de paramètres. Ce qui requiert une puissance de calcul très intense.
Pierre Schaus
Les futures versions de ChatGPT seront infiniment plus performantes, mais aussi potentiellement… moins polluantes. Un modèle chinois d’IA récemment lancé, DeepSeek, semble par exemple nécessiter beaucoup moins de ressources et de GPU (NDLR: un processeur graphique qui assure les fonctions de calcul d’image) que les modèles équivalents à ChatGPT. «Les aspects économiques et écologiques sont généralement alignés. Pour assurer leur rendement, les entreprises d’IA n’ont aucun intérêt à être si consommatrices en énergie, poursuit Pierre Schaus. Les plus pessimistes évoqueront l’effet rebond, selon lequel chaque amélioration des capacités d’une technologie est compensée par une demande et donc aussi une consommation globale plus élevée.»
Une demande d’énergie en deux temps
L’IA nécessite du calcul à deux moments distincts, rappelle Pierre Dupont, professeur à l’Ecole polytechnique de l’UCLouvain et spécialiste de l’intelligence artificielle. D’abord lorsque OpenAI prépare le terrain et le modèle. «Lors de cette phase, il ingurgite, sous forme de paramètres numériques, des informations collectées essentiellement sur internet. Les stocker et en faire un modèle nécessite énormément de calculs, et donc beaucoup d’énergie», explique-t-il.
Ensuite, la deuxième phase, celle de l’utilisation par le client, doit faire exécuter ce modèle. «Cette étape coûte encore du calcul. En revanche, lorsqu’on compare le nombre de modèles développés par OpenAI avec ses millions d’utilisateurs, le ratio reste modeste. C’est surtout la multiplication des requêtes de chacun qui peut faire exploser la consommation.»
De quoi est composée la consommation énergétique de l’IA?
Lorsque l’utilisation de l’IA explose, logiquement, sa consommation électrique suit la courbe. Des données datant de 2023 (on peut donc s’attendre à ce qu’elles soient plus élevées aujourd’hui) estiment que l’IA requiert entre 2 et 3% de la consommation électrique mondiale, chiffre Pierre Dupont. Quant au calcul informatique général (utilisation d’internet, des réseaux sociaux, etc), on parle plutôt de 10% de la consommation électrique mondiale. «Nos usages numériques ne font qu’augmenter. On peut donc résolument penser que l’augmentation de la consommation est inéluctable.»
Pour leurs propres marges bénéficiaires, les sociétés d’IA ont de toute façon intérêt à réduire leur consommation.
Pierre Dupont
Sauf si… l’IA, elle-même, inverse la tendance. Car elle commence également à être utilisée pour déterminer comment optimiser la consommation électrique. En quelque sorte, la raison même de l’explosion de la consommation énergétique mondiale (l’IA) pourrait contribuer à la réduction de cette consommation d’une façon plus large encore. Et donc auto-compenser son empreinte carbone. Cette hypothèse reste à démontrer à l’avenir. «Mais pour leurs propres marges bénéficiaires, les sociétés d’IA ont de toute façon intérêt à réduire leur consommation. Les optimisations de la consommation électrique pourraient donc clairement jouer en faveur de l’environnement», note le professeur, qui cite une étude allemande dont le but était de quantifier le coût du calcul demandé par l’IA première version (novembre 2022). «Un super-ordinateur a estimé le seul coût de l’électricité à 5 millions de dollars pour un mois.»
L’IA a soif
Selon Shaolei Ren, chercheur à l’Université de Riverside en Californie, une réponse de ChatGPT d’une centaine de mots «revient à consommer une bouteille d’eau et à allumer 14 ampoules LED pendant une heure.» Selon ses estimations, «si un travailleur américain sur dix utilise ChatGPT une fois par semaine pendant un an pour rédiger un courriel, il consommerait 435 millions de litres d’eau et 121.517 mégawattheures d’électricité -soit assez d’électricité pour éclairer tous les foyers de Washington DC pendant 20 jours.»
L’intelligence artificielle a donc également soif d’eau. Celle-ci est nécessaire pour assurer le refroidissement des serveurs, souvent placés à proximité d’une source d’eau froide pour faciliter le processus. Cette demande en eau n’est pas spécifique à l’IA, rappelle Pierre Dupont. «Le fonctionnement d’un ordinateur enclenche «l’effet Joule». Lorsqu’un courant passe dans un fil, de la chaleur se dégage. Cette chaleur doit être évacuée via des systèmes de refroidissement, qui demandent de grandes quantités d’eau. Mais tout n’est pas gaspillé. Dans les pays nordiques, des villes sont alimentées, pour leur chauffage, via l’eau récupérée des centres de calcul.»
Il est probable qu’OpenAI ne soit même pas propriétaire des serveurs sur lesquels les calculs sont exécutés.
Pierre Schaus
Difficile, toutefois, de géolocaliser précisément les serveurs d’OpenAI. «Cela relève du secret professionnel. Personne ne sait exactement où s’effectuent les calculs. Il est également probable qu’OpenAI ne soit même pas propriétaire des serveurs sur lesquels les calculs sont exécutés, et qu’elle sous-traite à des sociétés spécialisées, assure Pierre Schaus. Réaliser les modèles d’IA et gérer une infrastructure sont deux métiers différents.»
Par ailleurs, OpenAI a conclu un partenariat très fort avec Microsoft, qui investira plus de 80 milliards de dollars dans l’IA en 2025. L’entreprise de Brad Smith gère en réalité une bonne partie des datas d’OpenAI, via le cloud.
Google et OpenAI: fonctionnement différent, mais lien certain
Par effet de cascade, les émissions de CO2 du géant Google ont explosé à cause de l’intelligence artificielle. En 2023, l’entreprise a vu ses émissions de gaz à effet de serre atteindre 14,3 millions de tonnes de CO2, soit une augmentation de 48% par rapport à 2019, son année de référence.
C’est paradoxal, puisque si ChatGPT est fondamentalement différent de Google, il s’en enrichit. Le moteur de recherche indexe, compose une sorte de grande table avec les informations présentes sur internet. Une question posée à Google sert de clé de recherche dans sa gigantesque base déjà précalculée, qui fournit ensuite sa liste de lien.
«Ce sont les modèles les plus performants, demandant du raisonnement plus intelligent, qui nécessitent plus de consommation. Les modèles gratuits seront très peu coûteux en énergie à l’avenir.
Pour ChatGPT, le concept n’est pas le même: il converse et fournit une réponse construite. Les premières versions de l’IA n’avaient pas de capacité de recherche en temps réel, ce qui est désormais le cas pour les dernières versions. «Le robot peut détecter si une question nécessite une recherche en temps réel ou non. Il y a donc la combinaison d’un agent conversationnel avec un moteur de recherche, ce qui augmente sa consommation énergétique globale», remarque Pierre Dupont.
Pierre Schaus ne croit pas à une consommation ingérable dans le futur. «Ce sont vraiment les modèles les plus performants, demandant du raisonnement plus intelligent, qui nécessitent plus de consommation. Les modèles gratuits que l’on utilise pour des recherches basiques, seront très peu coûteux en énergie à l’avenir.»
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici