top of page

Les data centers, jusqu'à plus soif

Dernière mise à jour : il y a 3 jours

ree

Le centre de données Stargate de 4,5 gigawatts d'OpenAI en construction à Abilene, au Texas. Photo Jeffrey Hazelwood / CNET


L’expansion massive des data centers liés à l’IA provoque déjà pénuries d’eau et tensions électriques aux États-Unis. Enquête sur un modèle vorace, ses impacts sanitaires et environnementaux, et l’aveuglement des géants du numérique. Et en France ? On y arrive...


Les coupures d’électricité et d’eau, ce n’est pas seulement à Madagascar. Très bientôt, ce sera aussi le cas au centre de l’État de Washington, et en cascade, dans d’autres régions des États-Unis.


A vrai dire, c’est déjà le cas. Dans le comté de Newson, en Géorgie, les puits sont à sec, et les robinets ne suintent plus goutte. Beverly et Jeff Morris, un couple de retraités de 71 et 67 ans, a acheté à Mansfield (à moins d’une heure d’Atlanta), en 2016, un petit « paradis rural ». Deux ans plus tard, le paradis a commencé à se transformer en cauchemar. « Vous avez vraiment l'impression d'être face à un mur immense. Vous ne pouvez rien faire et ils s'en fichent », confient-ils. Ce « mur immense », ils en sont à 300 mètres : un centre de données construit par Meta à partir construction en 2018. Ils sont des milliers de riverains, comme Beverly et Jeff Morris, à subir les conséquences hydrauliques, et pas seulement, des data centers et de leur incommensurable besoin en eau.


ree

 Le patron de Meta, Mark Zuckerberg, avec à droite, le giga data center de 370 hectares

en cours de construction dans le comté de Richland, en Louisiane.


Après la Géorgie, Meta a poursuivi son expansion dans plusieurs États américains, avec 75 data centers opérationnels à ce jour (chacun d’eux suppose des investissements de plusieurs milliards de dollars). Mais que cela indispose la populace avoisinante, Mark Zuckerberg, l’adolescent attardé qui s’est rempli les fouilles avec Facebook, n’en a cure : il ne va tout de même pas renoncer à une partie de ses profits pour de si triviales considérations. Aujourd’hui, c’est en Louisiane que Meta déploie sa voracité, avec le construction, débutée en 2024, d’un giga data center sur plus de 370 hectares : le Richland Parish Meta Data Center, dans le comté de Richland, un complexe de plusieurs bâtiments destiné à accélérer les avancées en intelligence artificielle en fournissant plus de 2 gigawatts de capacité de calcul, notamment pour entraîner de futurs modèles de langage ouverts. Coût de l’investissement : plus de 10 milliards de dollars. Bréviaire à l’usage des gogos : ce centre « est conçu pour être l’un des plus durables au monde en matière de gestion énergétique et de préservation de l’eau, utilisant des technologies avancées pour l'efficacité énergétique, un aménagement paysager avec végétation locale résistante à la sécheresse, la capture et l’infiltration des eaux pluviales, et des dispositifs économes en eau ». Ben voyons…


Un centre de données de taille moyenne peut consommer jusqu’à 417 millions de litres d’eau par an pour son système de refroidissement. Aux États-Unis, la consommation directe d’eau des data centers atteignait environ 64 milliards de litres en 2023, un volume qui devrait doubler voire quadrupler dans les prochaines années, porté par l’essor colossal de l’intelligence artificielle. Cette soif d’eau est liée aux techniques employées pour refroidir les équipements, qui génèrent une chaleur intense lors du traitement des données. Le refroidissement repose majoritairement sur des systèmes à évaporation, comparables à un mécanisme naturel de « refroidissement par transpiration ». L’eau est pulvérisée dans l’air ou circule dans des tours spécialement conçues, où elle s’évapore en absorbant la chaleur produite par les serveurs. Environ 80% de cette eau s’évapore dans l’atmosphère, le reste étant récupéré, traité, puis acheminé vers les stations d’épuration... Boira-t-on l'IA jusqu'à l'hallali ?


Les centres de données nous pompent l'air, aussi...


Et s’il n’avait que l’eau… Vu que le réchauffement climatique est un vaste « canular », comme le dit Trump, on se doute bien que Mark Zuckerberg et consorts n’nt pas de temps à perdre à lire les rapports du GIEC et autres fariboles. C’est bien dommage : ils auraient alors pu tomber sur une étude pionnière menée par des chercheurs de l’Université de Californie Riverside (UCR) et du California Institute of Technology, (Caltech), publiée en décembre dernier (mais encore nulle part mentionnée dans la presse française. "The Unpaid Toll: Quantifying the Public Health Impact of Data Centers", voir ICI), qui met en lumière les effets sanitaires importants mais souvent négligés de l’expansion rapide des centres de données liés à l’intelligence artificielle, laquelle provoque des émissions polluantes significatives. Les polluants principaux identifiés sont les particules fines (PM2.5), le dioxyde de soufre (SO2) et les oxydes d'azote (NO2), responsables de maladies respiratoires, cardiovasculaires et d’une mortalité prématurée accrue. Le coût économique annuel de ces impacts sanitaires aux États-Unis pourrait dépasser 20 milliards de dollars d'ici 2030, ce qui est comparable aux effets sanitaires liés aux émissions routières en Californie. En outre, l'étude met en exergue une inégalité criante : les communautés défavorisées subissent un impact sanitaire jusqu'à 200 fois plus élevé, car elles sont souvent situées à proximité des sources de pollution associées aux infrastructures informatiques. Ah… mais si ce sont des pauvres, il est où, le problème ?


ree

On n'en a pas encore tout à fait fini : on n'a pas encore parlé de mégawatts. Un premier avertissement majeur, lié à la croissance rapide des centres de données; est survenu en juillet 2024 dans la région de Washington. Une défaillance sur une ligne électrique a provoqué la déconnexion soudaine d'environ 60 centres de données, qui sont passés à leurs générateurs de secours pour protéger leurs équipements sensibles. Cette réaction en chaîne a généré un surplus d'électricité qui a obligé les opérateurs du réseau (PJ et Dominion Energy) à réduire la production des centrales pour éviter des pannes de courant en cascade dans tout le secteur.


Dans la capitale mondiale des centres de données, comme la région de la baie de San Francisco (Silicon Valley), l'électricité est d'ores et déjà rationnée par certains opérateurs pour faire face à la demande croissante liée à l'essor de l'intelligence artificielle (IA), et aujourd'hui, des cryptomonnaies. La très forte consommation électrique des centres de données, souvent équivalente à celle de milliers de magasins ou d'une petite ville, met à rude épreuve les capacités des réseaux électriques locaux. Pour éviter des coupures, gérer la demande instantanée et préserver la stabilité du réseau, des mécanismes de rationnement ou de limitation de la charge sont mis en place, parfois accompagnés de longs délais pour obtenir des nouvelles connexions électriques... Des groupes de travail ont été mis en place pour enquêter sur ces déconnexions massives et trouver des solutions, notamment des révisions des normes de fiabilité. Mais les "géants" qui exploitent ces centres de données refusent d'entendre parler d'une telle "régulation", arguant que des baisses de tension du réseau pourraient endommager leurs équipements.


Selon un récent rapport de l'Agence internationale de l'énergie, les centres de données mondiaux ont consommé environ 415 TWh d'électricité en 2024 (environ 1,5 % de la demande mondiale totale), et cette consommation devrait plus que doubler d'ici 2030 pour atteindre environ 945 TWh, l'IA étant identifiée comme le principal moteur de cette croissance. Une étude réalisée en septembre 2025 a révélé que « l'expansion rapide des centres de données IA à grande échelle impose des exigences sans précédent aux réseaux électriques. Avec une consommation d'électricité immense soumise à des fluctuations importantes et rapides, ces installations ont des répercussions nouvelles et posent des défis opérationnels aux réseaux électriques ». En 2023, l'État américain qui consommait le plus d'électricité pour ses centres de données était la Virginie, où se trouve le Data Center Alley, sur 77 kilomètres carrés, qui représentait 26 % de la consommation annuelle totale d'électricité de l'État. Le Data Center Alley, c'est le surnom donné à une région située en Virginie du Nord, particulièrement autour de la ville d'Ashburn, qualifiée de capitale mondiale des centres de données : cette région concentre à elle seule 70% du trafic mondial de l'Internet.


ree

Des électriciens se réunissent pour une « soirée entre potes » après le travail au Side Chicks Sports Bar à East Wenatchee,

dans l'État de Washington. Photo New York Times


Ni Open AI, ni Google, ni Microsoft, ni Meta (entre autres) n'ont daigné à ce jour divulguer la consommation énergétique réelle liée à la formation et au fonctionnement des grands modèles linguistiques pour leurs applications IA. Mais tête baissée, toutes développent de pharaoniques projets de construction de nouveaux centres de données afin de stimuler la croissance alimentée par l'IA, et se contrefichent des mises en garde adreéées par des organisations telles que la "North American Electric Reliability Corporation (NERC)" fondée en 2007 à la suite de la grande panne électrique de 2003 aux Etats-Unis, et qui prévenait dans un rapport rendu public en décembre dernier que "le risque de coupures de courant ne fera qu'augmenter à mesure que de nouveaux centres de données seront mis en service" et que "presque tous les États-Unis seront confrontés à des risques plus élevés de pénurie d'énergie au cours des 5 à 10 prochaines années". Mais Mictosoft a signé un contrat pour mettre en srervice une partie de la centrale nucléaire de Three Mile Island, en Pennsylvanie, tristement célèbre pour avoir été le théâtre du plus grave accident nucléaire américain en 1979, et toutes ces sociétés après-nous-le-déluge recrutent à tour de bras, dans tout le pays, des électriciens pour la construction et la maintenance des équipements. Comme il y a là aussi pénurie (de main d'oeuvre), les conditions de recrutement sont allégées : il suffit d'avoir touché une fois dans sa vie un interrupteur pour être qualifié d'électricien (voir reportage du New York Times, ICI)


En France aussi, la course aux data centers


Les États-Unis, c’est loin ? Pas tant que ça. En France aussi, la course aux data centers bat son plein. Dernière annonce en date : NTT, le géant japonais des télécoms, lance le chantier d’un data center géant dans l’Essonne, à cheval sur les communes du Coudray-Montceaux et de Corbeil-Essonnes, à environ 40 kilomètres de Paris. Ce centre de données devrait sortir de terre d'ici 2030. Il s'étendra sur une surface de 14,6 hectares, l’équivalent de 20 terrains de football. La Mission régionale d’autorité environnementale (MRAe) d’Île-de-France, vient de donner le feu vert à la deuxième phase de construction de ce gigantesque campus informatique. On ne va pas contrarier dans un si prometteur élan le "Choose France" de la "start-up nation" ! Pour la qualité de l’air, les pénuries d’eau et d’électricité, prière de repasser plus tard. A part ça, lors de l'ouverture de la COP30, Emmanuel Macron a souligné l’importance cruciale de poursuivre l’ambition climatique mondiale. Mais, c’est vrai, il a reconnu les difficultés à « maintenir le cap face aux pressions politiques et économiques ». On ignore jusqu’à quand la planète sera en mesure de poursuivre cette danse imposée du « en même temps ».

 

Jean-Marc Adolphe


 DONS DÉFISCALISABLES JUSQU'AU 31/12/2025  Rappel. Nous avons fait le choix d'un site entièrement gratuit, sans publicité, qui ne dépend que de l'engagement de nos lecteurs. Dons ou abonnements ICI

Et pour recevoir notre infolettre : https://www.leshumanites-media.com/info-lettre 


Commentaires


nos  thématiques  et  mots-clés

Conception du site :

Jean-Charles Herrmann  / Art + Culture + Développement (2021),

Malena Hurtado Desgoutte (2024)

bottom of page