Une révolution numérique…alimentée par l’électricité
L’intelligence artificielle générative fait aujourd’hui couler autant d’encre qu’elle consomme d’énergie.
À mesure qu’elle se diffuse dans nos outils de travail, nos moteurs de recherche, nos flux sociaux, elle s’impose comme le symbole d’un progrès technologique inéluctable; capable de générer du code, de simuler des dialogues, ou de produire des images dignes des plus grands studios.
Sur les réseaux sociaux, les tendances virales comme les « starter packs générés par IA », les portraits stylisés ou les «memes» absurdes produits en quelques secondes deviennent autant de manifestations culturelles d’une technologie désormais banalisée.
Contenu de l’article
Ceci étant dit, derrière cette effervescence créative et cette apparente légèreté se cache une réalité matérielle bien plus lourde à porter.
Contrairement à l’illusion d’immatérialité souvent associée au numérique, chaque requête faite à un modèle d’IA; chaque image générée, chaque réponse produite; mobilise une infrastructure colossale de serveurs, de data centers, de GPU et de systèmes de refroidissement, alimentés par une ressource on ne peut plus tangible : l’électricité.
Une étude menée par Hugging Face et Carnegie Mellon University révèle que générer une seule image avec un modèle de type Stable Diffusion XL peut consommer autant d’énergie qu’une charge complète de smartphone.
Pire encore, générer 1 000 images équivaudrait à parcourir 4,1 miles (6,6 km) avec une voiture moyenne à essence.
Et ce n’est pas tant l’entraînement initial du modèle qui pèse le plus sur la balance énergétique; bien qu’il soit lui aussi extrêmement coûteux; que son utilisation quotidienne, à grande échelle.
Selon la chercheuse Sasha Luccioni : « Pour des modèles comme ChatGPT, il ne faut que quelques semaines d’usage massif pour que les émissions générées par les requêtes dépassent celles liées à leur entraînement initial. ».
C’est ici que réside le paradoxe fondamental de notre époque : une technologie présentée comme un levier d’efficacité; et potentiellement un allié pour la transition énergétique; peut également devenir un accélérateur de notre dépendance aux ressources si son usage est laissé sans cadre.
Dans un monde où les grandes entreprises investissent des centaines de milliards dans l’IA, où chaque outil devient « AI-powered », et où la demande en calcul explose, il devient essentiel de prendre du recul.
Si l’IA est appelée à jouer un rôle clé dans la productivité et l’innovation des organisations, son adoption ne peut se faire sans une conscience accrue de son empreinte environnementale.
Cette prise de conscience n’est pas une opposition au progrès, mais un appel à l’intelligence stratégique.
À une époque où l’intensité énergétique des modèles d’IA s’accroît à mesure que leur puissance augmente, et où les promesses d’efficacité sont parfois contredites par des effets rebonds incontrôlés, il est urgent d’orienter nos choix technologiques avec discernement.
Cet article propose une réflexion managériale sur l’utilisation efficiente de l’IA générative : comment concilier innovation et responsabilité, comment faire les bons arbitrages technologiques, et pourquoi il est impératif d’intégrer l’impact environnemental comme critère stratégique dans la sélection, l’implémentation et la gouvernance des outils d’IA.
La face cachée de nos prompts : ce que l’IA consomme en coulisses
Il est tentant de croire qu’une requête envoyée à un assistant conversationnel, aussi sophistiqué soit-il, est un acte anodin, sans conséquence tangible.
Après tout, il ne s’agit que de quelques mots tapés sur un clavier, traités dans un nuage algorithmique abstrait.
Pourtant, cette apparente immatérialité masque une réalité énergétique bien concrète : l’intelligence artificielle générative repose sur une infrastructure industrielle gourmande en électricité, en eau, en matériaux et en ressources computationnelles.
Prenons un exemple simple : la génération d’un rapport de cinq pages par un grand modèle de langage comme GPT-4o.
Selon les mesures de la plateforme Code Carbon, une seule requête de ce type consomme en moyenne 439 Wh, soit l’équivalent de 4,49 mégajoules d’énergie primaire et émet 268 grammes de CO₂ équivalent.
Pour donner une idée de grandeur, cela revient à :
- 2,58 km parcourus en voiture électrique;
- 5,37 km de course à pied en termes de dépense énergétique humaine;
- 4,18 heures de streaming vidéo.
Autrement dit, rédiger automatiquement un document professionnel n’a rien d’anodin.
«Si seulement 1 % de la population mondiale (80 millions de personnes) effectuait ce type de tâche chaque jour pendant un an, l’empreinte globale serait colossale : cela représenterait la consommation annuelle de près de deux centrales nucléaires ou l’équivalent des émissions de 44 000 allers-retours aériens entre Paris et New York».
Ce que cette démonstration met en lumière, c’est l’accumulation silencieuse d’une empreinte énergétique distribuée.
Chaque requête est peu coûteuse à l’échelle individuelle, mais leur démultiplication, rendue possible par l’accessibilité croissante des modèles et leur intégration dans les logiciels du quotidien (suite bureautique, CRM, moteurs de recherche, assistants vocaux), engendre un coût systémique.
Dans ce contexte, l’IA générative n’est plus un gadget, mais un acteur à part entière de la consommation énergétique numérique mondiale.
Selon l’Agence internationale de l’énergie (IEA), les centres de données consommaient déjà 415 TWh d’électricité en 2024, soit environ 1,5 % de la consommation mondiale.
Cette proportion devrait plus que doubler d’ici 2030, atteignant un niveau comparable à la consommation actuelle du Japon.
Une part importante de cette croissance est directement liée à l’essor des usages liés à l’intelligence artificielle.
Ce constat renverse une idée reçue : ce ne sont plus uniquement les phases d’entraînement des modèles (certes énergivores) qui posent problème, mais bien leur usage massif et généralisé.
Comme le soulignait plus tôt la chercheuse Sasha Luccioni, il suffit de quelques semaines d’utilisation par des millions de personnes pour que les émissions liées à l’usage d’un modèle populaire comme ChatGPT dépassent celles liées à son entraînement initial.
En d’autres termes, ce ne sont pas les modèles eux-mêmes qui sont insoutenables, mais la façon dont nous les utilisons, sans discernement ni stratégie.
«Le numérique n’échappe pas aux lois fondamentales de la physique : chaque calcul a un coût énergétique, chaque itération mobilise de la matière, chaque génération consomme des ressources.»
Il devient dès lors indispensable d’adopter une lecture systémique de l’impact environnemental de l’IA, en sortant du mythe de la magie logicielle pour entrer dans une réflexion rationnelle et managériale.
L’enjeu n’est pas de restreindre l’innovation, mais d’éclairer ses conditions d’optimisation.
Au-delà de l’électricité : eaux, métaux et cycle de vie du hardware
Lorsque l’on évoque l’impact environnemental de l’intelligence artificielle, la plupart des discussions se concentrent sur la consommation d’électricité.
Pourtant, cette consommation n’est que la partie émergée d’un iceberg beaucoup plus vaste.
Car derrière chaque requête, chaque modèle, chaque data center, se cache une empreinte hydrique, minérale et matérielle considérable; trop souvent négligée dans les réflexions stratégiques.
1. L’eau, cette ressource invisible au cœur de l’IA
Refroidissement des centres de données
Les serveurs ultra-denses utilisés pour entraîner et déployer les modèles d’IA génèrent une chaleur importante, nécessitant des systèmes de refroidissement sophistiqués.
Nombre d’entre eux utilisent des systèmes à eau évaporative, qui pompent de l’eau propre à travers des radiateurs pour évacuer la chaleur.
Selon la technologie utilisée et le climat local, on estime que de 0,18 à 1,1 litre d’eau est requis pour chaque kWh consommé.
À titre indicatif, GPT-3 (base de ChatGPT) utiliserait environ 500 mL d’eau pour traiter 10 à 50 requêtes.
Et un centre de données hyperscale typique peut consommer jusqu’à 2,1 millions de litres d’eau par jour, l’équivalent de la consommation quotidienne d’une petite ville.
Fabrication des semi-conducteurs
L’eau est également cruciale en amont, lors de la fabrication des puces GPU.
Ce processus nécessite une « eau ultrapure » pour nettoyer les wafers dans des cycles répétés de photolithographie, gravure et dépôt : Environ 60 % de l’énergie de fabrication est dédiée aux processus techniques sur les wafers.
Les 40 % restants sont liés au traitement de l’eau, à la ventilation, aux bâtiments.
Le géant mondial TSMC consomme 157 000 tonnes d’eau par jour, une hausse de plus de 70 % depuis 2015, reflet de la montée en puissance des besoins en IA.
Empreinte hydrique globale
En 2023, on estimait la consommation annuelle d’eau des centres de données à 560 milliards de litres, dont les deux tiers liés à la production d’électricité, un quart au refroidissement direct, et le reste à la fabrication des semi-conducteurs.
Si rien ne change, ce chiffre pourrait atteindre 1 200 milliards de litres en 2030; soit l’équivalent de 480 000 piscines olympiques.
2. Les métaux rares : des ressources critiques sous tension
Les serveurs et accélérateurs d’IA embarquent une myriade de métaux rares et critiques : cuivre, silicium, aluminium, tantale, étain, cobalt, lithium, gallium, germanium, tungstène, pour ne citer que les principaux.
Ces matériaux exigent une extraction intensive : des centaines de tonnes de minerai doivent être traitées pour produire une seule tonne de métal raffiné.
Certains sont classés « minerais de conflit », notamment le cobalt et le tungstène, dont l’extraction en zones instables soulève de lourdes questions éthiques et sociales. Sécurité d’approvisionnement
La croissance exponentielle des centres de données pourrait représenter d’ici 2030 : 2 % de la demande mondiale de cuivre et de silicium ; > 3 % pour les terres rares ; 11 % pour le gallium.
Or, plus de 90 % de l’aluminium, du silicium et du gallium sont produits dans seulement trois pays, ce qui augmente considérablement la vulnérabilité des chaînes d’approvisionnement.
3. Cycle de vie des équipements : penser au-delà de l’usage
Fabrication vs exploitation
Si l’usage actif d’un serveur (pendant 5 ans) représente environ 80 % de son énergie totale consommée, la fabrication seule en représente environ 20 %, un chiffre loin d’être marginal compte tenu des volumes d’équipements déployés.
Émissions incorporées
L’étude de Luccioni et al. (2023) sur le modèle BLOOM (176 milliards de paramètres) met en lumière une distribution complexe de l’impact carbone :
- 22,2 % des émissions liées à l’entraînement proviennent de la fabrication des GPU ;
- 48,9 % de la consommation dynamique (utilisation active) ;
- 28,9 % de la consommation à l’arrêt (refroidissement, stockage, ventilation).
Au final, l’empreinte de l’IA dépasse largement le compteur électrique.
Elle s’inscrit dans un cycle extractif, hydrique et matériel qui mobilise des ressources de plus en plus rares, dans des contextes géopolitiques instables.
Pour que l’IA soit un levier de développement soutenable, il ne suffit pas de modérer son usage.
Il faut aussi maîtriser chaque maillon de sa chaîne de valeur, de la mine au datacenter, en passant par la pureté de l’eau et l’intelligence de la conception.
Démystifier le mythe du “coût marginal nul” : Pourquoi l’intelligence ne se résume pas à l’électricité
Une idée largement relayée dans les cercles technologiques postule que, grâce à l’automatisation croissante des centres de données, le coût de l’intelligence artificielle devrait à terme converger vers celui de l’électricité.
Cette vision, aussi séduisante soit-elle, relève davantage d’un raisonnement économique abstrait que d’une analyse systémique rigoureuse.
Réduire l’intelligence à une simple consommation électrique; par exemple 0,34 Wh par requête pour ChatGPT selon Sam Altman; occulte une réalité bien plus complexe : chaque opération repose sur un écosystème matériel, logistique et énergétique à forte intensité de ressources.
Derrière l’éclat de la promesse technologique se cache une chaîne de valeur entière, mobilisant GPU, métaux critiques, eau ultrapure, infrastructures de refroidissement, réseaux de distribution et cycles de maintenance.
La focalisation exclusive sur la consommation instantanée d’énergie masque donc l’empreinte élargie et cumulative du système.
Ce n’est donc pas l’IA qui est insoutenable par essence, mais bien la manière dont nous la mobilisons sans discernement, croyant à tort que sa croissance peut s’accompagner d’une neutralité énergétique.
En somme, la véritable maîtrise de l’intelligence artificielle ne viendra pas de la seule baisse de ses coûts unitaires, mais de notre capacité à en gouverner l’intensité d’usage, à en calibrer les déploiements selon les objectifs métier, et à intégrer dans chaque décision technologique les externalités invisibles.
Car l’intelligence n’est pas gratuite : elle est conditionnée par notre volonté de la rendre soutenable; pas uniquement économiquement, mais écologiquement et stratégiquement.
Évitons d’utiliser un marteau-piqueur pour écraser une noix
Face à la démocratisation fulgurante des outils d’IA générative, une tentation grandit dans les organisations : tout faire avec les grands modèles.
Corriger un texte, générer des balises SEO, trier des courriels, synthétiser des notes de réunion…Pour chacun de ces cas, le réflexe devient souvent d’invoquer ChatGPT, Claude ou Gemini, parfois même directement intégré dans la suite bureautique.
L’automatisation est à portée de clic.
Mais à quel prix ? L’analogie est simple, presque triviale, mais elle révèle une tension fondamentale : on n’achète pas un camion 18 roues pour aller chercher une pinte de lait.
Utiliser un modèle de langage massif pour accomplir une tâche simple; qui pourrait être gérée par un outil spécialisé ou un modèle allégé; revient à gaspiller une ressource computationnelle précieuse.
« On utilise pas un marteau-piqueur pour écraser une noix » - Sasha Luccioni
Ce « surdimensionnement » technologique n’est pas seulement une erreur d’allocation de ressources : il engendre des coûts opérationnels inutiles (API, infrastructure, consommation électrique) et une empreinte environnementale disproportionnée.
À titre d’exemple, classer des critiques de films avec un LLM (Large Language Model) générique consomme jusqu’à 30 fois plus d’énergie qu’un modèle spécialisé conçu pour cette tâche.
Le choix du modèle ne devrait donc jamais être laissé au hasard ou à la convenance de l’utilisateur final. Il s’agit d’une décision stratégique, au même titre que le choix d’un logiciel, d’un fournisseur ou d’un outil de production.
Et ce choix doit intégrer une nouvelle dimension : son retour environnemental sur investissement (REOI).
La performance doit être évaluée non seulement en termes de qualité ou de rapidité, mais aussi selon son intensité énergétique, ses émissions indirectes, et son impact sur les ressources matérielles.
Les leaders technologiques eux-mêmes le reconnaissent.
Les gains d’efficacité proposés par des entreprises comme NVIDIA, via des architectures GPU plus performantes, ou par l’optimisation des modèles via le quantization ou le distillation, sont nécessaires…mais largement insuffisants.
Tant que l’usage reste massif, fréquent, voire automatique, ces améliorations seront noyées dans un effet rebond : plus une technologie est efficace, plus elle est utilisée, et plus sa consommation totale augmente.
C’est pourquoi la sobriété ne peut être uniquement technologique ; elle doit être aussi comportementale et organisationnelle.
Autrement dit, elle appelle une gouvernance active de l’IA.
Cela peut passer par :
- des directives internes précisant dans quels cas utiliser un modèle lourd vs léger ;
- la mise en place de « budgets carbone » par équipe ou par département pour l’usage des outils d’IA ;
- la sensibilisation des employés aux impacts invisibles de leurs requêtes ;
- des indicateurs de performance énergétique associés à l’usage de l’IA dans les tableaux de bord.
Car si chaque tâche, chaque brouillon, chaque automatisation légère passe systématiquement par un LLM généraliste, l’organisation contribue sans le savoir à l’explosion de la demande énergétique mondiale; sapant ainsi les gains d’efficacité annoncés.
En somme, faire le choix du modèle minimal efficace, c’est allier intelligence stratégique, responsabilité environnementale et rigueur opérationnelle.
Ce n’est pas freiner l’innovation, mais la canaliser.
Car dans un monde où la demande en calcul s’apprête à rivaliser avec celle des grandes industries lourdes, la véritable modernité ne sera plus d’adopter l’IA à tout prix, mais de le faire au juste coût; et avec lucidité.
L’illusion du progrès automatique : l’effet rebond de l’IA
L’un des grands mythes du progrès technologique repose sur l’idée que l’efficacité engendre spontanément la durabilité.
Or, l’histoire des technologies montre exactement l’inverse : à mesure qu’un outil devient plus performant, accessible et rapide, son usage se banalise, s’intensifie…et finit par générer plus de consommation que ce qu’il permettait initialement d’économiser.
Ce phénomène, bien connu en économie de l’énergie sous le nom d’effet rebond, s’applique pleinement à l’intelligence artificielle.
Appliqué à l’IA générative, l’effet rebond se traduit par une prolifération de micro-usages : un résumé de courriel ici, une image stylisée là, un brainstorm automatisé, un prompt pour un post LinkedIn…Des usages qui, pris isolément, semblent bénins, mais qui, multipliés par des millions d’utilisateurs et de machines, représentent un coût environnemental cumulatif massif.
Les chiffres parlent d’eux-mêmes.
Lors du déploiement du modèle BLOOM, la phase d’utilisation; c’est-à-dire les requêtes quotidiennes des utilisateurs; a généré, en quelques mois seulement, une empreinte carbone équivalente à celle de toute la phase d’entraînement du modèle.
Et cela, sans compter la consommation indirecte en eau pour le refroidissement des serveurs, ou encore les métaux rares mobilisés pour les composants matériels.
En d’autres termes, plus l’IA devient efficace, plus nous l’utilisons, et plus nous consommons au total.
L’équation est contre-intuitive, mais redoutable.
«Et le plus inquiétant réside dans le fait que ces nouveaux usages sont souvent non nécessaires, créés par opportunisme ou confort, sans réelle valeur ajoutée; comme laisser couler un robinet simplement parce que l’eau est à volonté.» - Gabriel Tassé
Face à cette dynamique, la réponse ne peut être uniquement technologique.
Si l’on mise uniquement sur des modèles plus sobres ou sur des centres de données plus verts, on risque d’ignorer la racine comportementale du problème.
Car même une IA plus efficiente, utilisée sans retenue, finira par creuser notre empreinte collective.
C’est ici que le management entre en jeu, non plus comme utilisateur de l’IA, mais comme gardien de sa finalité.
Il ne suffit plus de former les équipes à exploiter les outils ; il faut aussi instaurer une culture du discernement.
Cela peut prendre plusieurs formes concrètes :
- Instaurer des règles d’usage raisonnées (ex. : “prompt light” pour les tâches routinières) ; Former à l’impact environnemental invisible des usages numériques ;
- Évaluer les cas d’usage en fonction de leur utilité réelle et de leur coût énergétique marginal ;
- Prioriser les automatisations à fort ROI plutôt que les commodités à faible valeur stratégique.
Dans cette perspective, la prochaine frontière du pilotage de l’IA ne sera pas uniquement l’adoption massive, mais la capacité des organisations à en réguler finement l’usage pour éviter que le progrès technique ne devienne une fuite en avant écologique.
Le véritable enjeu n’est donc pas de ralentir l’innovation, mais d’orchestrer intelligemment son intensité d’usage.
La durabilité ne se construira pas par défaut, mais par design; et par gouvernance.
Construire une stratégie IA durable : vers une gouvernance responsable des modèles
Dans un contexte où l’IA générative s’intègre à toutes les strates de l’organisation; du marketing à la finance, en passant par les RH, la production ou le service client; il devient impensable de laisser son usage se développer de manière opportuniste, sans cadre ni stratégie.
Une IA durable n’est pas une IA interdite ou bridée : c’est une IA orchestrée, gouvernée, alignée avec les valeurs et les objectifs de l’entreprise, y compris environnementaux.
À l’instar de la sécurité informatique ou de la protection des données personnelles, l’usage de l’IA devrait faire l’objet de politiques internes claires, de mécanismes de suivi, et de critères de performance élargis, intégrant des indicateurs environnementaux.
Cette approche managériale ne repose pas uniquement sur des principes éthiques ; elle s’appuie aussi sur une logique économique : réduire l’empreinte énergétique, c’est aussi réduire les coûts d’infrastructure, de serveurs, de licences, d’API et de refroidissement.
Vers un retour sur investissement environnemental (REOI)
Il est temps de compléter l’analyse du ROI traditionnel par une nouvelle métrique : le REOI ou «Return on Environmental Investment».
À performance égale, le modèle qui consomme moins, mobilise moins de ressources abiotiques (comme les métaux rares), ou nécessite moins d’appels serveurs, devrait être privilégié.
Cela implique d’intégrer à l’évaluation des projets d’IA :
- L’énergie par tâche (Wh) ;
- Les émissions de CO₂eq associées ;
- L’usage de l’eau pour le refroidissement des data centers (souvent invisible, mais critique) ;
- La pression sur les ressources matérielles (métaux, terres rares).
Ce cadre d’analyse devient d’autant plus pertinent avec des outils émergents comme le projet AI Energy Score, qui propose de classer les modèles d’IA selon leur efficience énergétique par tâche, facilitant la comparaison entre modèles lourds, légers ou spécialisés
Leviers d’action pour les décideurs
Voici quelques pistes concrètes pour les organisations souhaitant structurer une stratégie IA responsable :
- Élaborer une taxonomie interne des usages de l’IA: distinguer les usages critiques (forte valeur, automatisation de processus coûteux) des usages accessoires ou réplicables par d’autres outils.
- Instaurer un “budget énergétique” ou “carbone” par département : sensibiliser les équipes au coût invisible de leurs usages.
- Développer un tableau de bord de performance énergétique des projets IA, couplé aux KPIs métier.
- Favoriser l’adoption de modèles “slim” ou spécialisés, lorsqu’ils sont suffisants pour la tâche.
L’IA n’est pas un produit “clé en main” qu’on adopte passivement.
C’est une infrastructure stratégique à piloter dans la durée. Et à l’ère des rapports RSE, des audits ESG et des engagements climatiques croissants, les entreprises ne peuvent plus se permettre d’ignorer l’impact environnemental de leurs choix technologiques.
TL;DR
L’intelligence artificielle générative marque un tournant dans l’histoire de la productivité numérique.
Elle ouvre un champ extraordinaire d’optimisations, d’automatisations et de création assistée.
Mais comme toute révolution technologique, elle impose une relecture critique de ses externalités; non pas après coup, mais dès sa mise en œuvre.
Le mythe d’une IA éthérée, fluide et sans empreinte doit laisser place à une conscience plus mature : chaque prompt a un coût, chaque génération une conséquence.
Qu’il s’agisse d’électricité, de refroidissement, de stockage ou de calcul distribué, les requêtes adressées aux modèles les plus puissants mobilisent des ressources aussi tangibles qu’un moteur industriel ou qu’une ligne de production.
Les leaders qui sauront intégrer cette réalité dans leur stratégie technologique prendront une longueur d’avance; pas seulement en matière d’image ou de conformité ESG, mais en termes d’efficience opérationnelle, de résilience énergétique et de pérennité environnementale.
Adopter l’IA de façon responsable ne signifie pas restreindre l’innovation ; cela signifie l’orienter intelligemment, en maximisant sa valeur ajoutée là où elle est justifiée, et en limitant son usage là où d’autres solutions; humaines, analogiques ou numériques classiques; sont suffisantes, voire préférables.
Dans une époque marquée par la tension entre croissance technologique et limites planétaires, la question n’est plus de savoir si nous devons utiliser l’IA générative, mais comment nous devons le faire.
Non pas à n’importe quel prix, mais au bon prix.
Non pas en cédant à l’euphorie, mais en choisissant avec rigueur.
Et surtout, en nous souvenant que la véritable innovation, aujourd’hui, ne consiste plus seulement à faire plus, mais à faire mieux, avec moins.
J’allais oublier, avant que vous ne quittiez…
Cet article fait partie de ma série «Turbulences».
Si vous aimez les réflexions sans filtre et les explorations audacieuses des tendances numériques qui bousculent notre monde, du marketing à l’IA, en passant par l’environnement...alors Turbulences est pour vous.
Une infolettre pensée comme une conversation spontanée, là où les idées prennent leur envol avant même d’être parfaitement lissées.
Sources
- AS Luccioni, S Viguier, AL Ligozat. Estimating the carbon footprint of bloom, a 176b parameter language model.
- Making an image with generative AI uses as much energy as charging your phone. MIT Technology Review. S. Luccioni, B. Trevelin, M. Mitchell.
- The Environmental Impacts of Artificial Intelligence: A Primer. Hugging Face.
- Energy and AI: A Growing Relationship with Big Implications. International Energy Agency.
- AI Energy Score: Towards Comparable Energy Efficiency Ratings for AI Models. Hugging Face.