Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 
Les événements

PROGRAMME DES GSDAYS 28 JANVIER 2025

    

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Des datacenters plus froids dans un monde qui se réchauffe

décembre 2022 par Gabriel Ferreira, Directeur Technique chez Pure Storage France

Le réchauffement climatique est bel et bien une réalité, comme l’a parfaitement illustré l’été 2022 et les vagues de chaleur qui se sont succédées. Aussi, maintenir une température basse dans les datacenters devient un défi à la fois complexe, onéreux et gourmand en énergie. Et comme les volumes de données sont en pleine expansion, ces besoins ne feront qu’augmenter.

Pour tous ceux qui appartiennent au monde du traitement et du stockage de données, « garder la tête froide » n’est pas un challenge inédit. Tout responsable de datacenter sait aussi qu’il faut trouver l’équilibre entre consommation énergétique efficace et températures constantes, tout en répondant aux besoins de l’entreprise. Bien qu’il existe de très nombreuses technologies de pointe spécialisées dans le refroidissement de composants, leur installation ou leur adaptation dans des datacenters existants peut parfois se révéler complexe. Heureusement, il existe des stratégies pragmatiques et durables à explorer dans le cadre d’une solution holistique.

Faire circuler un air plus frais
Il va sans dire que chaque datacenter doit être équipé d’un bon système de climatisation. Pour ceux qui en ont les moyens, bâtir leurs datacenters sous des climats plus froids apporte une bonne réponse à la question du refroidissement. Bien sûr, pour beaucoup, cette option n’est pas réalisable.

S’assurer que les systèmes CVC disposent d’une alimentation électrique stable est une condition de base. En termes de continuité des opérations et de planification de contingence, l’installation de générateurs de secours est une précaution nécessaire autant pour les technologies de refroidissement que pour les systèmes de traitement et de stockage. Les plans de continuité des activités et de reprise après sinistre devraient déjà indiquer les dispositions à suivre en cas de coupure de l’alimentation principale (et de secours).

Si les températures atteignent de nouveaux sommets, alors cela vaut la peine d’acheter du matériel plus durable et plus fiable. Le stockage flash, par exemple, est typiquement et de loin plus adapté à gérer une hausse des températures que les solutions à disques mécaniques. Cela signifie que la sécurité des données est assurée et que les performances restent constantes, malgré des températures élevées.

Suggestions pour réduire la consommation énergétique
Voici trois stratégies que les services IT devraient étudier. Une fois combinées, elles permettent de réduire les besoins en énergie et en refroidissement des datacenters.

● Des solutions plus efficaces. Il est évident que chaque matériel consomme de l’énergie et génère de la chaleur. Les services IT devraient donc rechercher du matériel plus efficace et offrant une plus faible empreinte dans le datacenter afin de maintenir les températures (et donc les coûts) à un niveau plus bas. De plus en plus d’entreprises IT prennent en compte l’efficacité sur le plan énergétique lors du choix des composants de leur datacenter. Sur le marché du traitement et du stockage de données, par exemple, les métriques clés qui sont aujourd’hui évaluées incluent la capacité par watt et la performance par watt. Le stockage de données représentant une part considérable du matériel des datacenters, la mise à niveau vers des systèmes plus efficaces permet de réduire significativement l’empreinte liée à l’énergie et au refroidissement à l’échelle du datacenter.

● Architectures désagrégées. La tendance actuelle est au Direct Attached Storage et aux systèmes hyperconvergés. Beaucoup de fournisseurs évoquent les gains d’efficacité du regroupement des systèmes de traitement et de stockage au sein d’une HCI (infrastructure hyperconvergée). C’est tout à fait juste, mais ces gains d’efficacité sont surtout dus aux délais réduits de déploiement et au nombre plus faible d’équipes impliquées. Il ne s’agit donc pas forcément de gains d’efficacité énergétique. En fait, le Direct Attached Storage et les systèmes hyperconvergés gaspillent une certaine quantité d’énergie.

D’une part, il est rare que les besoins en traitement et en stockage évoluent au même rythme. Certains services finissent même par sur allouer la partie traitement de l’équation afin de pourvoir aux besoins croissants de la partie stockage. Bien que moins fréquent, l’inverse est aussi vrai. Il n’en reste pas moins que dans les deux cas, beaucoup d’énergie est gaspillée. Si les parties traitement et stockage sont dissociées, il est plus facile de réduire le nombre total de composants nécessaires dans l’infrastructure, et donc de réduire également les besoins en énergie et en refroidissement. D’autre part, le Direct Attached Storage et les solutions hyperconvergées ont tendance à créer des silos d’infrastructures. Il est très difficile de partager les capacités non utilisées d’un cluster avec d’autres clusters et cela ne fait qu’accentuer la surallocation et le gaspillage des ressources.

● Provisioning en temps voulu. L’approche traditionnelle consistant à pourvoir aux besoins des 3 à 5 prochaines années n’est plus adaptée au but visé. Selon cette approche, les services doivent gérer une infrastructure bien plus grande que ce dont ils ont immédiatement besoin. À la place, des modèles modernes de consommation à la demande et des outils de déploiement automatisé permettent aux entreprises d’adapter facilement l’infrastructure de leurs datacenters au fil du temps. L’infrastructure est ainsi mise en service « en temps voulu » et non plus « au cas où », ce qui évite d’avoir à alimenter et refroidir des composants qui ne seront pas utilisés avant plusieurs mois voire plusieurs années.

Le maintien au frais des datacenters dépend généralement de la fiabilité du système de climatisation et de la robustesse de la planification de contingence. Mais quel que soit le site, chaque fraction de degré d’augmentation de la température implique l’augmentation proportionnelle de la pression subie par l’équipement. Les systèmes de refroidissement limitent cette pression au niveau des racks et des piles, c’est pour cela qu’aucun responsable de datacenter ne veut exposer ces systèmes à une pression supplémentaire, et c’est précisément ce que les récentes vagues de chaleur ont fait.

Alors pourquoi ne pas commencer par les bases et réduire le volume des équipements et donc la génération de chaleur ? Si cela permet simultanément de réduire les coûts d’exploitation, de simplifier et refroidir nos datacenters, tout en réduisant la consommation énergétique, alors on ne devrait même plus se poser la question.


Voir les articles précédents

    

Voir les articles suivants