Quel est le véritable impact environnemental de l’IA ?
- Par
Pollen
- Publié le
- 08/09/2025
- Temps de lecture
- 12min

En quelques années, l’intelligence artificielle est sortie des laboratoires pour s’inviter dans la recherche internet, nos logiciels de travail ou encore certaines campagnes publicitaires. Cette démocratisation fulgurante bouleverse déjà les usages professionnels et personnels. Mais elle présente aussi un revers régulièrement passé sous silence : une facture environnementale qui ne cesse de gonfler.
Derrière la fluidité d’un “prompt” ou d’une requête vocale se cachent des milliers de serveurs, des gigawatts d’électricité et des millions de litres d’eau. Alors que les entreprises et les États investissent massivement pour accélérer l’adoption de l’IA, une question devient incontournable : jusqu’où notre planète peut-elle soutenir cette révolution numérique ?
Pour tenter d’explorer cette question, nous avons condensé les études disponibles et un récent dossier très complet du média Bon Pote. On vous explique tout ce qu’il faut savoir.
Pourquoi l’empreinte de l’IA explose ? L’adoption à marche forcée
En 2017, les modèles d’intelligence artificielle restaient confinés aux laboratoires de recherche et aux départements R&D des grandes entreprises. Moins de dix ans plus tard, ils se sont imposés dans le quotidien de millions d’utilisateurs. Comment sommes-nous passés à l’usage ? La simplicité d’utilisation et une UX qui facilitent la diffusion à grande échelle sont les moteurs de cette adoption généralisée. L’IA n’est plus un outil spécialisé, réservé à une élite de chercheurs et d’ingénieurs : elle est devenue une brique numérique, intégrée “par défaut” dans le parcours utilisateur : moteurs de recherche, suites bureautiques, CRM.
Pour les géants de la tech et du business, elle s’impose aussi comme un levier de compétitivité et une technologie dont “il faut prendre le train” pour ouvrir de nouveaux relais de croissance. Résultat ? une course à l’intégration qui se traduit par une explosion des calculs, et donc de la consommation énergétique.
Cette “banalisation” explique aussi pourquoi l’impact environnemental de l’IA croît si rapidement. Mais plus qu’un problème lié à la puissance de quelques modèles géants, c’est le volume des usages quotidiens ainsi que le manque de transparence et d’éducation sur le sujet qui font peser une pression nouvelle sur les infrastructures. On vous explique.
Les trois corps : ce que l’on ne voit pas derrière le “prompt”
Derrière la fluidité apparente d’un dialogue avec un chatbot, il y a une réalité beaucoup plus matérielle. Chaque réponse générée par un modèle mobilise des milliers de serveurs répartis dans des data centers. Ces infrastructures, souvent installées à proximité de sources d’énergie et de réseaux de télécommunications puissants, constituent le véritable “corps” de l’IA.
1. L’électricité, première ligne de la facture énergétique
Les estimations convergent : la consommation électrique des data centers devrait doubler d’ici 2030, pour atteindre près de 945 térawattheures (TWh), soit l’équivalent de la consommation d’un pays comme le Japon. Cela représenterait environ 3 % de la demande mondiale d’électricité, un chiffre modeste en apparence mais considérable si l’on songe à la vitesse de cette croissance (+15 % par an, quatre fois plus rapide que la moyenne des autres secteurs, selon l’Agence internationale de l’énergie).
2. L’eau, ressource locale sous tension
Pour maintenir les serveurs à température, de vastes systèmes de refroidissement consomment chaque jour des volumes d’eau colossaux. Aux États-Unis, dans le comté de Loudoun (Virginie), cœur mondial des data centers, les prélèvements ont atteint près de deux milliards de gallons en 2023, soit une hausse de plus de 60 % en quatre ans. Derrière ces chiffres globaux se cachent des arbitrages très concrets : eau pour les cultures, pour les habitants… ou pour les machines.
3. Les métaux rares, l’autre face cachée de l’IA
Enfin, la fabrication des processeurs graphiques (GPU) et des semi-conducteurs nécessaires à l’entraînement et à l’usage des modèles repose sur des métaux stratégiques comme le cuivre, le cobalt ou le silicium. Or ces matériaux sont déjà au cœur des tensions liées à la transition énergétique (batteries, éoliennes, panneaux solaires). L’essor de l’IA vient donc s’ajouter à une demande mondiale déjà sous pression, accentuant les risques de dépendance et de pénurie.
Du laboratoire au quotidien : l’explosion de l’inférence
Longtemps, l’attention s’est concentrée sur l’entraînement des modèles, ces phases spectaculaires où des milliers de processeurs sont mobilisés pendant des semaines pour “enseigner” à une IA qui apprend à générer du texte, des images ou du code. Les chiffres avancés faisaient impression : l’entraînement de GPT-3, en 2020, aurait consommé l’équivalent de plusieurs gigawattheures, soit la consommation annuelle de centaines de foyers.
Mais cette étape, aussi énergivore soit-elle, ne se produit qu’une fois par modèle. C’est désormais l’inférence autrement dit, l’usage quotidien par les millions d’utilisateurs qui concentre l’essentiel de l’empreinte. Chaque fois qu’un internaute interroge un assistant, que Word propose une reformulation ou que Google ajoute une réponse “IA” en haut de sa page, ce sont des serveurs qui tournent, parfois pour des requêtes d’apparence banale.
L’effet de masse est colossal. Une requête générative peut consommer dix à trente fois plus d’électricité qu’une recherche classique sur Internet. Tant que ces usages restaient marginaux, l’impact demeurait limité. Mais si l’IA est activée par défaut dans les moteurs de recherche ou intégrée systématiquement dans les suites bureautiques, les besoins se comptent en térawattheures supplémentaires.
Cette bascule explique pourquoi l’empreinte de l’IA s’emballe. Ce ne sont plus seulement quelques entraînements spectaculaires qui pèsent sur l’environnement, mais des milliards d’interactions quotidiennes. Une transformation invisible pour l’utilisateur, mais bien réelle pour les réseaux électriques, les nappes phréatiques et, in fine, les territoires où sont implantés les centres de données.
Quand le global rencontre le local : tensions déjà visibles
Les chiffres globaux donnent la mesure du phénomène. Mais c’est à l’échelle des territoires que l’empreinte de l’IA se fait le plus sentir, avec des tensions parfois déjà visibles entre besoins numériques et ressources disponibles.
L’Irlande, laboratoire des excès
Pays attractif pour les géants de la tech grâce à sa fiscalité et à son climat tempéré, l’Irlande illustre les limites du modèle. Selon les statistiques officielles, les data centers représentaient déjà 21 % de la consommation nationale d’électricité en 2023, contre à peine 5 % huit ans plus tôt. Selon l’étude du media indépendant Bon Pote qui relaye un rapport de l’EPMG, “la demande en électricité des centres de données a dépassé la croissance de capacité de l’éolien, les empêchant de substituer d’autres usages fossiles.” Dublin doit désormais arbitrer entre ses engagements climatiques, la sécurité énergétique et l’accueil des entreprises qui continuent d’y investir massivement.
La France, entre atout nucléaire et défis de raccordement
Hexagone doté d’un mix électrique largement décarboné, la France pourrait apparaître comme un terrain favorable à l’essor des infrastructures IA. Mais les chiffres de RTE sont parlants : la consommation électrique des data centers pourrait passer de 10 TWh en 2023 à 28 TWh en 2035, avec un scénario haut qui grimpe jusqu’à 80 TWh si tous les projets se concrétisent. Ici, le problème n’est pas tant le carbone que la capacité du réseau à absorber cette demande très localisée.
Les États-Unis face à la question de l’eau
Outre-Atlantique, ce sont surtout les tensions hydriques qui cristallisent les inquiétudes. En Arizona, en Californie ou en Virginie, les mégastructures de data centers rivalisent avec l’agriculture pour l’accès à l’eau. À Phoenix, certaines associations dénoncent une “captation” des ressources par les géants du numérique, dans un État déjà confronté à la sécheresse chronique.
Transparence et régulation : la bataille des chiffres
Si les tensions s’accumulent, c’est aussi parce que les données sur l’empreinte réelle de l’IA restent parcellaires, parfois contradictoires. Les entreprises communiquent volontiers sur leurs objectifs de neutralité carbone mais plus difficilement sur leurs consommations effectives d’électricité ou d’eau
Des données incomplètes ou difficiles à comparer
Google a récemment publié des estimations de la consommation “par requête” de son modèle Gemini : environ 0,24 Wh d’électricité et 0,26 millilitre d’eau pour un prompt textuel médian. OpenAI avance des ordres de grandeur similaires pour ChatGPT. Mais ces chiffres sont déclaratifs, non audités et surtout limités à l’inférence. Ils ne prennent pas en compte l’ensemble de la chaîne, de la fabrication des serveurs aux émissions indirectes des centrales électriques.
L’Europe en pionnière de la transparence
Consciente du risque d’opacité, l’Union européenne a imposé avec la directive sur l’efficacité énergétique (EED) un dispositif inédit : dès 2024, les data centers de plus de 500 kW devront transmettre des indicateurs standardisés sur leur consommation d’énergie, d’eau et leur efficacité énergétique (PUE). Une base de données européenne centralisera ces informations, posant ainsi les jalons d’une notation environnementale des infrastructures numériques.
Les États-Unis et le volontariat
Aux États-Unis, un projet de loi présenté en 2024 – l’Artificial Intelligence Environmental Impacts Act – envisage de confier au NIST le suivi des impacts énergétiques et hydriques de l’IA. Mais le dispositif repose pour l’instant sur le volontariat des entreprises, ce qui limite sa portée.
Le risque d’une fracture d’acceptabilité
À mesure que les tensions se multiplient, l’IA risque de cristalliser un rejet comparable à celui des projets éoliens ou des grands chantiers énergétiques. Si ses bénéfices — productivité, innovation, attractivité — ne compensent pas clairement ses coûts, elle pourrait devenir un symbole de fracture environnementale et sociale.
Quelles actions pour une IA plus responsable ?
Face à une demande en forte croissance, la seule efficacité technique ne suffira pas à contenir l’empreinte de l’IA. Plusieurs leviers existent toutefois pour réduire son impact, à condition de les combiner et de dépasser le simple affichage d’objectifs.
Décarboner l’approvisionnement énergétique
Les grands groupes signent des contrats d’achat d’électricité renouvelable (PPA). Mais encore faut-il qu’ils reposent sur une véritable additionalité : construire de nouvelles capacités de production, et non se contenter de verdir leur bilan via des certificats. La transparence des contrats, le suivi horaire des consommations et l’ancrage local du mix sont essentiels pour éviter le “greenwashing énergétique”.
Repenser la conception des produits par l’usage
Une partie des gains viendra aussi des choix des éditeurs logiciels. Faut-il déclencher un modèle de langage complet pour chaque question, même triviale ? Peut-on privilégier des modèles plus petits, plus sobres, pour les tâches simples ? Peut-on limiter l’IA par défaut dans certains outils ? Derrière ces arbitrages se joue la capacité à contenir l’effet rebond, ce paradoxe où l’efficacité accrue entraîne en réalité une hausse globale de la consommation.
Encadrer par la régulation
Enfin, la régulation devra imposer des garde-fous clairs. Reporting public, audits indépendants, indicateurs harmonisés (PUE pour l’énergie, WUE pour l’eau), obligations par site et non au seul niveau du groupe : autant de mesures qui permettraient de mieux mesurer l’empreinte et, à terme, de la réduire. L’Union européenne a ouvert la voie, mais l’efficacité de ces dispositifs dépendra de leur mise en œuvre et de la pression exercée pour les faire respecter.
Réserver la puissance aux cas utiles, interroger les usages domestiques
L’un des leviers majeurs est d’éviter le réflexe du “tout IA générative”. Doit-on vraiment lancer un modèle de plusieurs centaines de milliards de paramètres pour générer une réponse factuelle simple ?
La généralisation de l’IA dans la vie quotidienne soulève aussi des questions : faut-il encourager l’utilisation d’IA génératives pour chaque recherche scolaire, chaque demande triviale, chaque message ? Si les gains sont faibles mais les coûts collectifs élevés, la question de la légitimité de certains usages domestiques pourrait émerger, à l’image des débats sur la vidéo en streaming ou la climatisation.
Et pour la suite ?
Crédits IA, tarifications des usages : les pistes abstraites d’une intelligence artificielle plus responsable
Et si chaque requête adressée à un chatbot pouvait être comptabilisée comme une dépense énergétique à part entière ? De la même manière que notre impact cartonne est désormais présentée comme une véritable ligne de dépense sur certains tickets de caisse de supermarché, l’idée d’un système de crédits IA, inspiré des quotas carbone, pourrait paraitre séduisante sur le papier : responsabiliser les utilisateurs, distinguer les usages essentiels des usages de confort et mesurer un coût réel. Mais les dysfonctionnements nombreux du marché du carbone montrent les limites d’une telle initiative à l’échelle européenne. Entre allocations généreuses, contournements et volatilité des prix, les quotas n’ont pas toujours permis de réduire les émissions autant qu’espéré. Transposée à l’IA, une telle approche risquerait de créer un droit à consommer, sans garantir une réelle sobriété.
Autre piste évoquée : la tarification différenciée des usages. Payer plus cher pour un modèle géant et énergivore, moins pour une IA spécialisée et frugale. Le signal prix aurait le mérite de refléter la réalité environnementale des calculs. Mais là encore, l’efficacité dépendrait de la transparence des données et de la capacité des géants du numérique à jouer le jeu, sans maquiller leurs bilans.
Ces scénarios, encore hypothétiques, rappellent une chose : l’IA n’est pas une ressource infinie. Comme l’électricité ou l’eau, elle mobilise des infrastructures physiques, avec des coûts réels. La question n’est pas tant de savoir si nous limiterons nos usages, mais comment nous choisirons de les encadrer. Soit par un pilotage collectif assumé, soit par la logique du marché, avec ses forces… et ses travers bien connus.
🔎 Nos sources :
Études et rapports de référence
- Agence internationale de l’énergie (AIE) : rapports 2023–2025 sur l’énergie et les data centers (projections de consommation mondiale, ~945 TWh en 2030, croissance ~15 %/an).
- Central Statistics Office (CSO) Irlande : statistiques officielles sur la consommation électrique des data centers (21 % en 2023).
- RTE (France) : scénarios de consommation des data centers (10 TWh en 2023 → 28–80 TWh en 2035).
Articles & enquêtes journalistiques
- Bon Pote (sept. 2025) : “Le vrai coût environnemental de la course à l’IA” — pédagogie et chiffres clés.
- Reporterre (juil. 2024) : “L’insoutenable coût écologique du boom de l’IA” — récit et tensions locales (corrigé des erreurs de chiffres).
- France Culture (été 2024, “La question du jour”) : vulgarisation de l’empreinte IA (usage quotidien, analogies).
Données entreprises
- Google Sustainability Report 2024–2025 : consommation “par requête” Gemini (~0,24 Wh et 0,26 mL d’eau, médiane, non audité).
- OpenAI (déclarations Sam Altman, 2025) : ordres de grandeur de consommation par prompt (~0,34 Wh et 0,000085 gallon d’eau).
Littérature académique
- Shaolei Ren et al., “Making AI Less Thirsty” (2023) : analyses sur la consommation d’eau directe et indirecte des data centers et de l’IA.
Le meilleur de la formation, version Pollen
Experts à découvrir, méthodes de terrain et actus fortes, retrouvez le meilleur de Pollen dans votre inbox.