Un datacenter troglodyte !

Mise à jour du 07/07/2017 : j’ai rajouté quelques photos de l’intérieur du démonstrateur (merci à Steven)

Bonjour à tous ! Aujourd’hui, je vous propose un petit voyage au cœur des pays de la Loire, plus exactement à quelques kilomètres de Saumur, cette très belle ville connue pour son Cadre Noir, son Château et son vin de table ^^. J’ai en effet eu l’occasion de visiter très récemment un “datacenter” souterrain un peu particulier, grâce à l’invitation de Sigma Informatique, l’entreprise Nantaise bien connue spécialisée dans le développement, l’infogérance et l’hébergement professionnel, que je remercie au passage (big up à Steven).

Prenez vos lunettes de spéléo, votre casque de chantier, votre gilet fluorescent, et en route pour l’exploration…

La ressource : les mines de tuffeau

A l’origine de ce projet un peu fou, un appel à projet de la région Pays de la Loire, soutenu également par l’agglomération de Saumur et le département du Maine et Loire pour valoriser le potentiel – immense – des carrières souterraines de tuffeau. Ce sont en effet littéralement des milliers de kilomètres de galeries qui parcourent le sol de cette région. L’architecture de surface en est d’ailleurs un témoin direct ! Or, ces galeries sont pour beaucoup, une fois le filon complètement exploité, laissées à l’abandon alors qu’elles disposent de propriétés d’hygrométrie et de température qui en font un réservoir de fraîcheur humide constante quasi inépuisable. Vous avez dit fraîcheur ??? Mais, qui a besoin de fraîcheur de nos jours dites-moi ? ^^

L’opportunité

Historiquement exploitées durant plusieurs siècles, ces mines de pierre blanche ont quasi toutes été arrêtées à partir de la deuxième moitié du vingtième siècle (quelques exploitations subsistent encore, mais elle sont très peu nombreuses). Depuis cette époque, elle n’étaient plus utilisées qu’à la marge pour des champignonnières ou plus récemment pour des parcours touristiques. A l’occasion de l’appel à projet, un consortium s’est constitué pour proposer de reconditionner ces espaces en lieu d’hébergement de puissance de calcul. En effet, les lieux paraissaient a priori idéaux pour héberger de l’informatique : un environnement dans lequel puiser pour refroidir les machines sans recourir à la climatisation artificielle, un immense espace déjà creusé aux dimensions nécessaires, une discretion parfaite, la protection de la pierre pour la sécurité et un potentiel global d’exploitation quasi inépuisable, vue la ressource.

Deep Data

Ce consortium baptisé Deep Data, constitué de 6 partenaires, dont Sigma (voir le site officiel pour plus d’information à ce sujet), a commencé par modéliser ces fameuses galeries, à la fois physiquement et thermiquement, afin de trouver la meilleure manière d’exploiter le potentiel de régulation thermique de celles-ci. Une fois modélisé, Critical Buildings, partenaire stratégique et membre du consortium, s’inspirant en partie de l’état de l’art industriel en matière de datacenter (architecture modulaire, free-cooling etc.), a proposé de concevoir des “modules” autonomes de capacité modeste à moyenne (jusqu’à 4 baies 42U) livrables “clef en main” et connectables directement à un réseau de tuyaux de dissipation thermique parcourant les kilomètres de galerie pour assurer le refroidissement. Le Datecenter Troglodyte était prêt à être testé !

Un démonstrateur plein de promesses

Après la conception, il fallait évidemment passer au test en grandeur nature pour en vérifier la viabilité. L’objectif était également de limiter l’investissement au minimum, dans un premier temps. Des solutions innovantes et très pragmatiques ont été utilisées pour réduire les coûts : par exemple, le module datacenter était en fait un module déjà disponible sur le marché auquel on a appliqué quelques modifications sur l’aménagement intérieur et la climatisation. D’autre part, les tuyaux assurant la dissipation thermique ne sont autres que des tuyaux agricoles réservés habituellement à l’irrigation des vignes (à quelques mètres au dessus …) dans lequel on recréé une circulation typique “d’eau glacée”.

Concernant plus spécifiquement ce circuit d’eau glacée, elle parcourt des échangeurs passifs dans le module pour emmagasiner la chaleur puis est injectée dans le réseau. Une simple pompe à eau classique de 150W suffit à produire le courant pour refroidir environ 20kW de puissance informatique. L’eau passe de 20° environ en sortie de module pour revenir, après son chemin au sein de la galerie à environ 15°. Cela permet de maintenir une température de 25° dans la salle.

Un module a donc été construit puis installé dans une mine désaffectée ; les tuyaux on été installés et une batterie de serveurs insérés au sein de la salle informatique et enfin chargés artificiellement pour simuler une activité informatique classique. Aujourd’hui, le module est en activité depuis bientôt un an et le PUE total de l’installation atteint un score digne des plus grands hébergeurs : inférieur à 1,1 et sans doute, lorsque l’année complète aura passé, plus proche de 1,095. Rappelez-vous en outre que le démonstrateur n’est pas encore optimisé ! (les capacités d’échange thermique des tuyaux, notamment, pourraient sans doute être amélioré).

Il va sans dire qu’en dehors de la partie climatique, le module respecte par ailleurs tous les standards actuels en matière d’hébergement : double adduction électrique et réseau, video-surveillance intégrée tout comme le contrôle d’accès (à tel point que nous n’avons pas réussi à rentrer lors de la visite … un COMBLE !!!). De même, les futures installation des tuyaux caloporteurs seront doublées, réparties dans des couloirs différents de la mine etc.

D’un point de vue strictement budgétaire, si on économise en grande partie la maintenance des équipements de climatisation, on n’ajoute pas forcément de coûts importants liés à la spécificité de l’endroit. Il y a certes de l’entretien du réseau de tuyaux, mais cela reste bien en deçà d’une installation classique, notamment vis à vis du prix du matériel :)

Ecologie et développement durable

Mais, vous allez me dire “du coup, les galeries se réchauffent, ça ne doit pas être bon pour l’environnement”. Certes, sur le principe, vous avez raison. Il faut savoir que le tuffeau est une roche particulièrement sensible à la chaleur : si elle conserve toutes ses qualités en environnement humide et frais (autour de 12/13° à l’intérieur des galeries classiquement), elle perd beaucoup de sa solidité en atmosphère plus sèche et chaude. Cela pouvait donc faire courir un risque structurel en cas de réchauffement significatif.

Cependant la modélisation réalisée et le démonstrateur ont pu montrer que l’impact sur la température et l’hygrométrie de la galerie est quasi négligeable, vu le rapport entre la chaleur injectée et la capacité de dissipation de celle-ci. Le consortium a estimé qu’avec une puissance informatique d’environ 200 kW (soit une dizaine de modules) placée dans une mine typique, la température ne s’élèverait pas de plus d’un degré par rapport à la température naturelle, et sans en affecter l’hygrométrie (un facteur important de conductivité thermique, au passage, donc garant d’une bonne répartition de la chaleur dissipée).

En somme, l’impact d’une installation d’une dizaine de modules est négligeable pour la mine.

Et maintenant ?

Aujourd’hui, le consortium Deep Data est en phase de préparation à l’industrialisation et à la recherche de la mine idéale pour commencer (proximité d’une artère routière, capacité de parking à la surface, proximité d’adductions réseau et électriques suffisantes etc.). Il envisage d’ici 12 à 18 mois, avec l’aide des pouvoirs publics, de créer tout simplement une Z.A.C. (Zone d’Activité Concertée) pour développer commercialement des produits dérivés du concept initial.

Le concept sera également un vecteur de communication très fort pour l’ensemble de l’agglomération de Saumur, permettant d’ajouter au vin et à l’architecture, une composante de modernité particulièrement pertinente à l’heure du numérique omniprésent !

Malgré les nombreuses photos de l’environnement qui agrémentent ce billet, vous noterez que je n’ai aucune photo intérieure à vous montrer encore. En effet, nous avons été confronté à un petit souci logistique sur place : personne n’avait l’accès pour rentrer dans le module, pas même nos accompagnants. Pas de bol quand même … nous avons tous été un peu frustrés forcément, mais je ne doute pas qu’on puisse vous montrer cela rapidement (nous attendons des photos complémentaires que je mettrai en ligne dès que possible).

Un grand merci à Steven pour sa proposition et Sigma Informatique pour l’invitation, à madame Cécile Macquet, Chargée de mission à l’Agence de développement du grand Saumurois, et enfin à monsieur Laurent Trescartes pour toutes ses explications (et sa passion pour le projet !).

Pour plus d’informations, quelques liens utiles :
Le consortium Deep Data : http://www.deepdata.fr.
Le site de l’agence de développement du Grand Saumurois : http://www.saumurois-dev.com/
Sigma Informatique : http://www.sigma.fr

Mise à jour du 7 Juillet, quelques photos de l’intérieur du module démonstrateur (un peu floues et un peu surexposées, désolé, je n’étais pas aux commandes ^^) :

Démarrer la discussion sur le forum vBlog.io