Dans le dernier numéro de SophiaMag, TAS Cloud Services a eu l’opportunité de partager un point de vue dans la rubrique “Propos libres”
Dans cette tribune, Vincent Burgevin, notre responsable Marketing partage un point de vue personnel sur un sujet qui alimente beaucoup de débats :
👉 la consommation énergétique de l’intelligence artificielle.
Du bruit, des chiffres... et parfois peu de recul
Elle repose sur des infrastructures complexes et énergivores. On parle d’eau, d’électricité, de CO₂… souvent sur un ton alarmiste. Mais avant de juger, encore faut-il comprendre : qu’est-ce qui consomme vraiment ? À quel moment ? Et pour quoi faire ?
Alors posons la question autrement : que remplace l’IA ? Et est-ce que le bilan est si mauvais que ça ?
Par Vincent Burgevin.
Quand on parle d’empreinte carbone des intelligences artificielles, on pense souvent à ChatGPT. Mais l’IA est bien plus vaste.
Traduction automatique, analyse d’image, recommandation, reconnaissance vocale, aide à la décision… Par jour, ce sont des milliards d’interactions.
L’entraînement des modèles est de loin la phase la plus gourmande. Former GPT-3 aurait ainsi consommé plus de 1 287 MWh
et généré entre 500 et 550 tonnes de CO₂, selon les estimations disponibles (source : Ekwateur / Scientific American). C’est une opération lourde certes, mais cela reste une opération ponctuelle.
« Une IA ne doit pas être géniale. Elle doit être pertinente, « juste » suffisante, et surtout contextuelle »
En comparaison, l’inférence, c’est-à-dire le moment où l’IA répond à une demande utilisateur, consomme beaucoup moins d’énergie par requête (entre 0,3 et 2 Wh selon les modèles et les conditions), mais comme ces interactions se comptent en millions chaque jour, cette consommation, bien que faible individuellement, devient significative à grande échelle si l’on en croit Epoch.ai et l’académie de Versailles.
Et c’est là que le bât blesse.
Google, Meta, Amazon, Microsoft… Tous intègrent l’IA à grande échelle. Résultat : un impact cumulé important mais... très difficile à mesurer.
Les données sont rares, les comparaisons peu fiables. Et la mise en perspective avec d’autres usages numériques (streaming, jeux, mails) est quasi inexistante (le rapport Arcep à ce sujet, publié en mai dernier, fait figure d’exception).
L’IA ne flotte pas dans les airs.
Elle vit dans des data centers et ces infrastructures doivent être refroidies, alimentées et maintenues.
Pourquoi ? Parce que l’IA est gourmande en GPU (processeurs graphiques spécialisés dans les calculs massifs), donc en densité, donc en dissipation thermique. Et qui dit densité dit refroidissement massif.
Une partie non négligeable de la consommation d’un data center est donc liée à cela. On mesure d’ailleurs cette consommation avec un indicateur, le Power Usage Effectiveness.
Le PUE est un marqueur simple et compare la consommation totale d’un data center à celle utilisée réellement par les serveurs.
Un PUE de 2 veut dire qu’il faut consommer 2 kWh pour en livrer 1 aux machines (le reste correspond à la consommation pour faire tourner la climatisation, les pertes, etc.).
Un bon PUE aujourd’hui tourne autour de 1,2, beaucoup plus sobre qu’il y a dix ans, mais encore perfectible.
Soyons clair cependant. Si l’on veut sérieusement réduire l’empreinte de l’IA, la première étape est de commencer par mieux l’estimer.
À l’heure actuelle en effet, un même calcul n’a pas du tout la même empreinte carbone, selon qu’il est effectué en France (dominée par le nucléaire bas carbone), en Chine (alimentée au charbon), ou aux USA (mix variable).
On en parle beaucoup ces derniers temps, à juste titre. Oui, certains data centers consomment de l’eau pour refroidir les infrastructures. Et dans le même temps, cette consommation permet de réduire drastiquement l’électricité utilisée par la climatisation.
L’utilisation de l’eau se mesure aussi avec un indicateur, le WUE, pour Water Usage Effectiveness.
Il exprime la quantité d’eau utilisée par kilowattheure d’électricité consommé par les serveurs. On estime aujourd’hui qu’un « bon » WUE est inférieur à 1,5 L/kWh.
« L’enjeu principal n’est pas de faire disparaître l’empreinte énergétique de l’IA. L’enjeu principal est de lui donner du sens et de la cohérence »
Car l’IA, bien utilisée, peut être un merveilleux outil de réduction d’impact. Optimisation logistique, maintenance prédictive, détection de fuites énergétiques, pilotage intelligent des réseaux électriques…
Ce ne sont pas des fantasmes de start-up. Ce sont des usages concrets, déjà en production.
Et si l’IA ne sauvera pas la planète à elle seule, elle a clairement le potentiel d’alléger le fardeau. Mais pour que cela fonctionne, encore faut-il penser sobre, dès la conception.
Aujourd’hui, beaucoup de projets IA sont lancés en mode démo, hype ou gadget. Résultat : on balance un modèle géant, dans le cloud, pour faire une tâche que trois lignes de code auraient pu gérer.
C’est là qu’intervient une autre approche, plus fine, plus stratégique : celle des agents spécialisés.
À l’inverse des modèles généralistes ultra-massifs (type LLM), un agent bien calibré, dédié à une tâche précise, sera bien plus léger, rapide, et économe. Et cette tendance est portée par les besoins concrets du terrain.
Une IA ne doit pas être géniale. Elle doit être pertinente, juste suffisante, et surtout contextuelle. Ce n’est pas l’IA qui doit devenir sobre. C’est notre manière de la déployer.
Aujourd’hui, les normes sont encore floues, les indicateurs rarement comparables d’un pays à l’autre, et les obligations souvent orientées « reporting » plus que transformation.
Côté infrastructure, les choses bougent. PUE en baisse, refroidissement repensé, matériel plus résilient, conception modulaire…
Tous ces efforts convergent vers une IA mieux hébergée, mieux intégrée, moins gaspilleuse. Mais attention toutefois à ne pas se bercer d’illusions.
Même si chaque modèle devient plus efficace,
l’usage global explose. Et cette tendance va continuer.
Et puis soyons honnêtes : même si chaque modèle IA devient dix fois plus efficace (énergiquement parlant),
la croissance en termes d’usage est exponentielle
et dans cinq ans, le risque est de consommer dix fois plus.
L’usage est en train d’exploser : assistants personnels, objets connectés, IA embarquée,
automatisation de tout et n’importe quoi…
Si vous trouvez que l’IA consomme trop aujourd’hui, ne regardez pas demain. Car le principal enjeu n’est pas de rendre les IA plus sobres mais de leur trouver un usage pertinent, maîtrisé et stratégique.
Pendant que l’on s’offusque d’un modèle de langage entraîné une fois, on ne compare pas avec les flux constants du fast fashion,
des vidéos absurdes ou des contenus sans fond. Beaucoup d’applications actuelles relèvent du gadget, ou du moins, n’apportent pas toujours une valeur à la hauteur de leur coût.
« Ce n’est pas l’IA qui doit devenir sobre. C’est notre manière de la déployer »
Il y a urgence à se demander à quoi sert ce que l’on développe, ce que l’on consomme,
et pas seulement combien cela coûte. Est-ce que cela suffira à inverser la tendance ?
Probablement pas.
Mais ne nous égarons pas : l’enjeu principal n’est pas de faire disparaître l’empreinte énergétique de l’IA. L’enjeu principal est de lui donner du sens et de la cohérence.
Sinon, nous allons droit dans le mur.
Merci pour votre lecture !
La veille technologique est primordiale dans notre industrie. Nous vous faisons bénéficier des dernières actualités en la matière. Abonnez-vous à notre newsletter pour les recevoir chaque mois dans votre boîte e-mail.
Externalisez votre informatique en toute sérénité avec TAS Cloud Services. Hébergeur cloud de proximité, nous vous accompagnons à chaque étape pour vous permettre de bénéficier d’une solution parfaitement adaptée à vos besoins IT.
Nous sommes là pour répondre à toutes vos questions et demandes de renseignements.
A Sophia-Antipolis, France