Les centres de données – plus connus sous l’appellation « data centers » – sont des infrastructures physiques complexes, composées de différents équipements informatiques, et utilisées par de nombreuses entreprises afin d’héberger, traiter et faire transiter des données, à travers internet ou via un réseau interne. Les équipements mobilisés sont très divers (ordinateurs, serveurs, routeurs, disques durs, câbles d’interconnexion, équipements réseaux…), leur nombre et leurs capacités variant selon l’importance du centre.
Si certaines entreprises localisent leur centre de données en leur sein même, celui-ci peut également être situé en externe, dans un local loué, comme un grand entrepôt par exemple. Dans ce cas-là, des hébergeurs informatiques sont responsables du stockage et de la maintenance des équipements.
A l’aube de la 5G, à l’échelle nationale comme mondiale, l’utilisation d’internet explose. Avec l’avènement du commerce électronique, des réseaux sociaux et autre applications, la quantité de données qui transitent à chaque instant est considérable.
En 2018 en France, on estime que 4 personnes sur 5 se connectent à internet tous les jours, et que 90 % des données disponibles dans le monde entier ont été créées au cours des 2 années précédentes.
En 2019, on recense 4 458 centres de données dans le monde, et 147 rien qu’en France. Ces nombres sont destinés à augmenter car la capacité de stockage mondiale de données pourrait bien doubler d’ici à 2023.
A l’heure actuelle, l’un des plus gros centres au monde est l’Utah Data Center, dans l’Utah aux États-Unis, avec une capacité de stockage de 3 à 12 milliards de gigaoctets, destiné à la NSA et partagé avec le FBI et la CIA.
-
Le fonctionnement des centres de données
Il existe 4 niveaux – ou « tiers » – de centres de données, classés en fonction de leur fiabilité et de leur résilience.
Le tiers I correspond au degré le plus simple, avec une seule alimentation électrique. Le tiers IV est le degré le plus haut, avec une alimentation complexe et une compartimentation coupe-feu.
Selon les tiers, la sécurisation des centres sera différente – plus forte dans le tiers IV – et la durée d’interruption de l’activité pour maintenance aussi – de 28h / an pour le tiers I contre moins d’une heure pour le tiers IV.
A l’heure actuelle, la problématique du fonctionnement des centres de données est au cœur des préoccupations, notamment sur le plan environnemental.
En effet, un centre comporte un système de distribution et de réserve d’énergie, un commutateur électrique, des générateurs. Il faut également une connexion internet permanente et importante qui permette la circulation rapide des données. Enfin, pour éviter toute surchauffe ou panne, un système de refroidissement est nécessaire. Tout cela représente une importante quantité d’électricité, avec un fort un coût énergétique (3 % de l’électricité mondiale, 7 à 10 % de la production électrique nationale en France en 2017) et donc une emprunte carbone conséquente (2 % des émissions de gaz à effet de serre, soit aussi importante que l’ensemble du secteur de l’aviation).
Face à cela, de plus en plus d’entreprises choisissent de se tourner vers des modes plus écologiques de fonctionnement. C’est ce que l’on appelle la Green Tech – ou encore « cleantech » – soit la volonté d’utiliser les ressources naturelles dans les technologies existantes, tout en gardant une performance identique, voire une amélioration de l’efficacité et de la productivité.
Des solutions pour limiter la consommation d’électricité des centres de données ont d’ores et déjà été trouvées, notamment en ce qui concerne les systèmes de refroidissement. Actuellement, dans la plupart d’entre eux, la ventilation – climatisation est utilisée, ce qui représente 40 % de l’énergie consommée.
-
Le free-cooling, solution efficace pour réduire la consommation énergétique ?
Le free-cooling consiste à utiliser la différence de température entre l’air extérieur et l’air à l’intérieur des centres pour les refroidir. Cela permettrait de réduire de 30 à 50 % leur consommation d’électricité.
Il faut cependant respecter des normes, notamment une balance entre température et hygrométrie (taux d’humidité dans l’atmosphère) pour que cela fonctionne.
Ainsi, l’ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers, association internationale à but non lucratif comptant plus de 50 000 membres issus de divers milieux professionnels, spécialisée dans le domaine des génies thermiques et climatiques), et l’ETSI (European Telecommunications Standards Institute, organisme de normalisation européen du domaine des télécommunications) recommandent des températures comprises entre 18 et 27° et entre 40 et 60 % de taux d’humidité.
Le free-cooling existe depuis quelques années déjà. Dès 2007, Google construit un centre de données à Douglas, en Géorgie aux États-Unis, qui a la particularité d’utiliser les eaux des égouts de la ville comme système de refroidissement.
En 2013, c’est Facebook qui ouvre un centre au nord de la Suède (Luleå), au bord du cercle polaire et utilise ainsi l’air froid extérieur comme système de ventilation des serveurs.
Plus récemment, en 2019, Google annonce un investissement de près de 3 milliards d’euros dans des centres de données en Finlande, afin d’utiliser l’eau de la mer Baltique pour réfrigérer les ordinateurs.
Le free-cooling a tout de même ses limites. C’est le cas en été, lorsque les températures extérieures deviennent plus fortes que les températures des serveurs internes, et en hiver, quand le taux d’humidité de l’air est trop élevé.
D’autres procédés existent aussi, comme celui d’augmenter la température à l’intérieur des centres afin d’éviter un sur-refroidissement des installations par climatisation. C’est également ce que préconise l’ASHRAE.
-
La course aux innovations des entreprises spécialisées
De plus en plus d’entreprises se spécialisent dans l’innovation énergétique des centres. Parmi elles, la société française Cyberscope, qui propose des éco-hébergements. Ce sont des bâtiments écologiques avec une énergie 100 % verte (ossature en bois, toiture végétale, isolation en cellulose) et qui utilisent la technique des puits canadiens, qui vont permettre de rafraîchir le bâtiment en puisant l’air extérieur depuis le sous-sol (dont la température reste comprise toute l’année entre 10 et 12°). La chaleur dégagée par les serveurs permet de chauffer les bâtiments en hiver.
La société anglaise DeepMind, va elle, développer des intelligences artificielles afin d’adapter précisément la climatisation selon le niveau d’activité des installations et ainsi réduire toute surconsommation énergétique.
Parmi les innovations très récentes, l’entreprise Green Revolution Cooling, fondée en 2009 utilisent elle des fluides non conducteurs d’électricités dans lesquels sont immergés les équipements, comme système de refroidissement.
Un centre de données de la société Webaxys, basé en Normandie utilise lui des panneaux photovoltaïques comme alimentation énergétique depuis 2016.
Enfin en 2018, le groupe Microsoft teste une nouvelle forme de centre de données, en en immergeant un à 40 mètres de profondeur dans les eaux écossaises pendant 1an. Le but étant de savoir si l’immersion des centres sous l’eau pourrait être une nouvelle alternative viable et plus écologique.
A l’heure actuelle, il existe seulement des recommandations en matière de consommation d’énergie des centres, surtout pour assurer leur fonctionnement. C’est tout le contraire pour la sécurisation et la préservation des données qu’ils abritent. L’utilisation de sous-traitants pour l’hébergement des données, ou les serveurs situés à l’étranger sont autant de facteurs à prendre en compte dans l’évaluation des risques pour les données en question.
En cela, c’est le règlement général sur la protection des données (RGPD), applicable dans l’Union Européenne et plus encore depuis le 25 mai 2018, qui intervient. Le cloud computing, nouvelle forme de stockage de données est également concerné de près par cette réglementation.
-
Le cloud computing, successeur des centres de données ?
Le cloud computing, à la différence des centres de données, utilise internet comme base de stockage plutôt que des disques durs et serveurs externes. Les entreprises achètent des ressources informatiques pour stocker les données et les utilisateurs peuvent y avoir accès rapidement, facilement et immédiatement.
Pour ces entreprises, le cloud est financièrement intéressant, car cela permet d’adapter directement le coût du cloud à son utilisation réelle. Les centres de données coûtant cher en entretien, la virtualisation permettrait de limiter le nombre de serveurs physiques. Cependant, choisir le cloud implique de faire confiance aux entreprises concernant la garantie de l’accès sur le long terme aux données stockées. Et beaucoup préfèrent encore les garder accessibles physiquement.
Si certains sont sceptiques concernant le futur des centres de données au profit du cloud computing, d’autres en revanche, restent persuadés qu’ils sont l’avenir. C’est le cas de l’actuel ministre de l’Economie français, Bruno Le Maire, qui, lors de l’inauguration d’un centre américain en région parisienne a déclaré vouloir faire de la France « la première terre d’accueil de datacenters en Europe ».
Dès 2018, lors de l’adoption de la Loi de Finance 2019, le Parlement avait voté un taux réduit sur la TICFE (taxe intérieure sur la consommation finale d’électricité) au profit des centres de données, pour permettre à la France de devenir plus attractive dans ce domaine, et d’avoir une position favorable en qualité de fournisseur d’électricité.
La condition imposée par le ministre de l’Economie, mais aussi par le ministre de la Transition Ecologique de l’époque, François de Rugy, était une réduction de la consommation d’électricité de ces centres, afin qu’ils soient écologiquement plus performant.
Sources
BASTIEN L., « Définition Data Center : qu’est-ce qu’un centre de données ? », lebigdata.fr, mis en ligne le 12 avril 2017, consulté le 12 octobre 2019.
BASTIEN L., « Google investit 3 milliards d’euros dans ses Data Centers européens », lebigdata.fr, mis en ligne le 20 septembre 2019, consulté le 13 octobre 2019.
BASTIEN L., « Cloud Computing – Définition, avantages et exemples d’utilisation », lebigdata.fr, mis en ligne le 10 février 2017, consulté le 12 octobre 2019.
BERNE, X., « L’Assemblée accorde un coup de pouce fiscal aux datacenters français », nextinpact.com, mis en ligne le 18 octobre 2018, consulté le 15 octobre 2019.
#LeBrief, « Bruno Le Maire veut faire de la France « la première terre d’accueil des datacenters en Europe », nextinpact.com, mis en ligne le 19 février 2019, consulter le 15 octobre 2019.
ASCHER, L., « Les centres de données, grands pollueurs de l’ère numérique ? », energystream-wavestone.com, mis en ligne le 10 février 2017, consulté le 12 octobre 2019.
DEBOYSER, B., « Data centers : des solutions pour réduire leurs consommations d’énergie », revolution-energetique.com, mis en ligne le 1er mai 2018, consulté le 12 octobre 2019.
JEAN., « Classification des centres de données : les “tiers”, et leur signification », eds.fr, mis en ligne le 05 juin 2017, consulté le 13 octobre 2019.
LEVEBVRE A., « Les datacenters de Big Tech dégagent plus de CO2 que l’aviation », express.live, mis en ligne le 29 mai 2019, consulté le 16 octobre 2019.
ZAFFAGNI, M., « Projet Natick de Microsoft : un datacenter sous-marin au large de l’Écosse », futura-sciences.com, mis en ligne le 8 juin 2018, consulté le 12 octobre 2019.
« Baromètre du numérique 2018 », 18e édition, arcep.fr, étude réalisé par le CREDOC pour l’ARCEP, le CGE et l’Agence du Numérique, d’après une enquête « face à face » de juin 2018, réalisée auprès de 2 214 français de 12 ans et plus, mise en ligne le 3 décembre 2018, consulté le 12 octobre 2019.
« Les chiffres clés 2019 », fevad.com, rapport publié chaque année sur l’état du marché e-commerce par la Fédération du e-commerce et de la vente à distance, mis en ligne le 27 juin 2019, consulté le 15 octobre 2019.