Podcast
ConnexionS'abonner
Fermer

Du béton au cloud : comment les data centers se bâtissent en France

Partager l'article
Publié le 27 avril 2026 à 9h05, mis à jour le 27 avril 2026 à 12h12, par Nils Buchsbaum

Portés par l’essor de l’IA, les chantiers de centres de données se multiplient. Mais bâtir ces usines numériques impose de lourds défis énergétiques.
Le Paris Digital Park à La Courneuve (Seine-Saint-Denis), plus grand data center de France comporte 40 000 m² de salles hébergeant les serveurs. © Adobe Stock - Batiweb
Le Paris Digital Park à La Courneuve (Seine-Saint-Denis), plus grand data center de France comporte 40 000 m² de salles hébergeant les serveurs. © Adobe Stock

Superstructures discrètes mais hautement stratégiques, les centres de données ou data centers connaissent un développement sans précédent en France. Ces bâtiments techniques hébergent des serveurs informatiques permettant de stocker, traiter et faire circuler les données numériques.

Lorsque vous ouvrez une application sur votre téléphone, vos données transitent par ces centres, quand vous sauvegardez des photos dans le cloud, elles y sont stockées, lorsque vous regardez un film sur Netflix, ce sont encore ces infrastructures qui diffusent les contenus en temps réel. Derrière ces usages quotidiens se structure un marché désormais porté au rang de priorité industrielle nationale.

Lors du sommet de l’IA organisé à Paris il y a un an, 109 milliards d’euros d’investissements ont été annoncés pour faire de la France une terre d’accueil de ces infrastructures essentielles au développement de l’intelligence artificielle et du cloud.

La France, qui compte environ 350 centres de données en activité, pourrait en accueillir une soixantaine supplémentaire dans les dix prochaines années, avec des capacités de traitement sans commune mesure avec les installations existantes. À l’échelle mondiale, plus de 11 800 centres de données étaient recensés fin 2025.

Une infrastructure devenue stratégique pour l’IA

 

Cette stratégie industrielle implique de nombreux enjeux matériels. Dans une étude parue en janvier 2026, l'Agence de l'environnement et de la maîtrise de l'énergie (Ademe) estime que les data centers installés en France consomment déjà environ 10 térawattheures (TWh) par an, soit 2,2 % de la consommation électrique nationale. Et la trajectoire est nettement ascendante, cette part pourrait plus que tripler d'ici 2035, en raison de l'essor de l'intelligence artificielle générative et du stockage cloud.

Dans ce contexte, la France mise sur deux atouts, un mix électrique largement décarboné, et une capacité de production disponible qui renforcent son attractivité face à d’autres régions du monde. Mais cette dynamique soulève aussi des inquiétudes et de nombreuses critiques. La multiplication des data centers bouscule les équilibres locaux en raison de leur forte empreinte foncière et de leurs besoins massifs en ressources. L'utilisation des réseaux électriques et des réserves d'eau peut complexifier leur acceptation par les populations et les élus.

« Au niveau de l'État et des entreprises, il y a une prise de conscience des besoins de souveraineté et de protection de la donnée », assure Nicolas Deuzé, co-directeur général d’Altarea Data Center, promoteur et opérateur d’infrastructures de data centers. En effet, une grande partie des données françaises transite encore par des infrastructures situées hors de l’Union européenne, ce qui alimente une volonté de relocalisation.

Entré récemment sur le marché via sa filiale Nation Data Center, Altarea revendique une approche hybride. L’entreprise combine des expertises issues de l’immobilier et de l’infrastructure numérique. « Notre spécificité, c’est d’avoir une équipe qui connaît à la fois le montage de projets immobiliers complexes et le design et l’exploitation de data centers », souligne Nicolas Deuzé. Cette double compétence permet d’intervenir très en amont, dès la recherche foncière, en lien avec les collectivités et les gestionnaires de réseaux.

Le marché des data centers ne forme pas un ensemble homogène. Il se structure aujourd’hui autour de plusieurs catégories, qui se distinguent avant tout par leur puissance électrique installée, l’indicateur central de leur capacité de calcul et, indirectement, de leur consommation énergétique.

Des data centers de plus en plus puissants

 

Les data centers de colocation, encore dominants en France, fonctionnent généralement dans une fourchette allant de 1 à 20 mégawatts (1 MW = 1 000 kilowatts). Ils hébergent les infrastructures de plusieurs clients (entreprises, banques, administrations) qui mutualisent l’espace et la puissance disponible.

Au-delà, les sites dits « hyperscale » changent d’échelle. Ils dépassent souvent 50 à 100 MW, et peuvent atteindre plusieurs centaines de mégawatts pour les plus grands campus dédiés au cloud ou à l’intelligence artificielle. Ces infrastructures sont conçues pour un nombre très limité d’acteurs, voire un client unique.

Enfin, les projets émergents liés à l’IA introduisent une nouvelle rupture : les campus IA, dont certains projets annoncés en France visent des capacités de l’ordre de 200 à 400 MW à terme. À ces niveaux, la logique n’est plus celle d’un bâtiment isolé, mais celle d’un véritable système énergétique territorial. Un data center de 100 MW représente ainsi une consommation théorique proche de la consommation électrique annuelle d’une ville moyenne.

Au-delà de 40 MW de puissance, les projets ne relèvent plus du gestionnaire de distribution Enedis mais directement de RTE (Réseau de transport d’électricité), avec des procédures plus lourdes et des délais pouvant atteindre plusieurs années. Le gestionnaire de réseau propose alors une offre technique et financière intégrant les conditions de raccordement. « Ce n’est pas nous qui imposons un site à RTE ou Enedis, c’est eux qui nous indiquent ce que le réseau peut accepter », précise Nicolas Deuzé.

Les contraintes d’urbanisme jouent également un rôle clé dans la localisation des data centers. Depuis la loi ZAN (zéro artificialisation nette), les opérateurs privilégient désormais des sites déjà artificialisés comme des friches industrielles ou zones d’activités.

 

Bien plus qu’un simple bâtiment

 

Une fois le foncier trouvé et le raccordement électrique validé, reste la phase la plus visible : la construction. S’étant positionné sur ce marché depuis de nombreuses années, Eiffage est l’un des rares groupes français capable de produire ce genre d’infrastructures.

Pour le groupe français, un centre de données n’est pas seulement un bâtiment, mais une infrastructure technique complexe, au croisement du génie civil, de l’énergie et des réseaux critiques. « Un data center, c’est avant tout un process dans un bâtiment. La valeur ajoutée, c’est la production de froid et surtout la distribution d’électricité », résume Benoît Martin, directeur commercial datacenter chez Eiffage Énergie Systèmes.

La conception d’un data center repose sur deux fonctions critiques indissociables, l’alimentation électrique et le refroidissement.

Le réseau électrique, condition centrale des projets

 

L’alimentation électrique constitue le premier enjeu. Tout est conçu pour éviter la moindre coupure, grâce à des systèmes redondants et des dispositifs de secours capables de prendre le relais instantanément. « On doit être capables de garantir une alimentation quasi sans interruption, quelles que soient les perturbations du réseau », explique Benoît Martin. La gestion thermique est l’autre enjeu primordial. « Toute la puissance injectée dans une baie informatique se transforme en chaleur. Sans refroidissement, la température monte très vite et fragilise le système », rappelle le spécialiste. 

Eiffage se positionne aujourd’hui sur l’ensemble du cycle d’un data center. « On intervient aussi bien sur les réseaux électriques en amont, pour les raccordements auprès d’Enedis ou de RTE, que sur l’exploitation et la maintenance des sites », explique Benoît Martin. Ces infrastructures fonctionnent en continu, 24 heures sur 24 et 7 jours sur 7, avec des exigences de fiabilité bien supérieures à celles du bâtiment tertiaire classique. « Ce sont des installations qui nécessitent une présence permanente et beaucoup plus de personnel de maintenance sur site », poursuit-il.

Face à la hausse des besoins et aux délais de raccordement, les méthodes de construction évoluent rapidement. Le secteur s’oriente vers des logiques plus industrialisées, avec un recours croissant à la préfabrication et aux modules standardisés. « L’intérêt, c’est de tester les systèmes en usine plutôt que sur site », explique M. Martin. Cette approche permet aussi de faire évoluer plus facilement les installations, en remplaçant certains composants sans intervenir sur l’ensemble du bâtiment, dans une logique proche d’un assemblage « type Lego ». « Les projets les plus importants sont généralement livrés en environ 24 mois pour la phase de gros œuvre et les premières salles informatiques », précise Benoît Martin.

 

L’impact environnemental au cœur des critiques locales

 

Alors que l’État et les acteurs économiques cherchent à accélérer l’implantation des centres de données, les résistances locales se multiplient. Les besoins en énergie et en eau concentrent l’essentiel des critiques. Plusieurs études estiment qu’un data center de 1 MW peut consommer plusieurs dizaines de millions de litres d’eau par an pour le refroidissement. Dans le même temps, la consommation électrique du secteur devrait fortement augmenter avec l’essor de l’IA. Si les opérateurs mettent en avant des circuits fermés et des optimisations techniques, l’évaluation précise de l’impact global reste complexe faute de données consolidées.

Selon l’Institut Paris Région, une agence d’urbanisme publique qui accompagne les collectivités franciliennes dans leurs stratégies d’aménagement, les collectivités locales sont souvent informées tardivement, une fois les discussions engagées entre opérateurs, foncières et gestionnaires de réseau. 

Dans ce contexte, le Sénat a récemment adopté un texte visant à mieux encadrer leur implantation, en renforçant l’association des élus locaux aux décisions d’aménagement afin d’améliorer leur « acceptabilité ».

Les opérateurs et constructeurs ont tout à fait conscience que les questions environnementales pourraient freiner certains projets. « Les fonctions annexes, notamment la valorisation de la chaleur, sont un vrai enjeu environnemental et d’image, et les clients s’y intéressent pour des raisons d’acceptation dans les collectivités locales », explique Benoît Martin, avant de nuancer : « La mission d’un data center, c’est avant tout d’héberger les données des clients, pas de produire de la chaleur. »

Newsletter

Ne manquez plus l’actualité du bâtiment !

Inscrivez-vous à la newsletter pour recevoir directement dans votre boîte mail les dernières actus du BTP

Je m’abonne gratuitement →
Nils Buchsbaum
Journaliste - Batiweb

Nils Buchsbaum est journaliste à la rédaction de Batiweb. Il suit l’actualité du BTP, de l’urbanisme et de la construction durable, avec une attention particulière portée à la prévention des risques, aux enjeux environnementaux et aux évolutions législatives.

Sur le même sujet

bloqueur de pub détecté sur votre navigateur

Les articles et les contenus de Batiweb sont rédigés par des journalistes et rédacteurs spécialisés. La publicité est une source de revenus essentielle pour nous permettre de vous proposer du contenu de qualité et accessible gratuitement. Merci pour votre compréhension.