Bienvenue sur le nouveau site de www.lille-communiques.com
Les communiqués de presse en direct Lille & Nord-Pas-de-Calais
Communiqué de presse : sciences / technologie

Datacenters : la haute densité devient la règle

CELESTE

Communiqué le 21/04/2011

Demande de renseignement

Vous souhaitez plus de renseignements à propos de ce communiqué.
Vous pouvez contacter le responsable de ce communiqué
en utilisant le formulaire ci-dessous :


Rappel du communiqué :
La révolution du temps réel avec Internet implique une nouvelle approche de la continuité de service et ainsi des exigences fortes de disponibilité de tous les maillons de la chaine informatique : connexions, serveurs, centres informatiques… Pour ces derniers, la haute densité est devenue le critère clé de conception et d'évaluation.

Un datacenter est un bâtiment sécurisé hébergeant des ressources informatiques. Ce bâtiment est conçu pour assurer la continuité de fonctionnement et de service de ces ressources. La continuité de service est donc au cœur de la conception de tous les centres informatiques du monde même s'il n'existe pas de norme pour la mesurer. Depuis 2007, les professionnels du secteur se réfèrent à la classification de l'Uptime Institute, avec des niveaux de « Tier I » à « Tier IV » (1) suivant le degré de disponibilité du service.

L'efficacité énergétique n'est donc pas un critère « historique » pour la conception des datacenters, et notamment pour ceux construits avant 2009. Des contraintes sur les rendements efficaces pèsent sur les équipements, du transformateur à l'onduleur ou les climatiseurs… Mais force est de constater que la conception elle-même (urbanisation, bâtiment…) des salles informatiques n'est pas prise en compte.

Entre 2004 et 2008, l'apparition de processeurs plus denses et de serveurs très consommateurs d'énergie comme les « blades » a fait monter les besoins en densité des datacenters de 500 W au m2 à plus de 1000 W. Du coup, de nombreux centres se trouvent confrontés à des problèmes de sous-dimensionnement électrique et thermique : ils ne peuvent plus répondre à la demande des clients. Ils subissent des pannes dues à la sur-consommation, comme des pannes du système de refroidissement l'été pouvant impacter le fonctionnement des serveurs en quelques minutes.

Au-delà des problèmes de dimensionnement, les coûts de l'énergie deviennent une problématique prépondérante pour le fonctionnement du datacenter : coût financier compte-tenu des évolutions du prix de l'électricité sur le marché européen et évidemment coût écologique. La prise en compte de l'empreinte écologique est devenue pour certaines entreprises et collectivités un nouveau critère de sélection des fournisseurs ou d'arbitrage entre solutions techniques équivalentes. Les centres énergivores deviennent moins attractifs pour les clients.

D'un point de vue opérationnel, financier et écologique, l'efficacité énergétique est devenue le point clé pour l'évaluation des datacenters. Sur le marché, elle est traditionnellement mesurée par avec le ratio « Power Usage Effectiveness ». Le « P.U.E. » indique le rendement énergétique moyen sur une année. Sur les sites d'ancienne génération, ce ratio est de l'ordre de 2 : pour 1 W d'énergie utile pour les serveurs, 1W est utilisé pour le fonctionnement du site, notamment pour la production de froid. D'autres ratios peuvent être utilisés comme la consommation de Carbone ou d'eau.

Depuis 2009, deux avancées importantes ont été apportées pour améliorer l'efficacité énergétique et la haute densité des sites industriels. La première consiste en une meilleure urbanisation des salles informatiques : organisation en « allées froides » et « allées chaudes », création des séparations étanches pour le confinement des flux d'air et l'optimisation du rendement de la climatisation. Sur les dernières salles construites par les exploitants historiques de datacenters, ces procédés ont été mise en œuvre.

S'il est difficile de connaître le rendement de ces salles, on peut estimer que le gain est d'environ 15% par rapport aux salles traditionnelles. En effet, la démarche de confinement est efficace ; elle permet d'utiliser le refroidissement par l'air ambiant ou free-cooling dans les zones tempérées. Dans ce cas, les systèmes de climatisation utilisent le froid de l'air extérieur si possible.

L'autre avancée est celle des exploitants de sites Internet (comme Google, Facebook ou Microsoft), qui travaillent sur des serveurs moins sensibles aux températures élevées ou dotés de système de refroidissement des composants avec de l'eau froide. Avec cette approche, on peut ne plus refroidir les salles informatiques, voire même éteindre des salles complètes lorsqu'il fait trop chaud à un endroit donné. Cette démarche semble efficace, mais elle implique une maîtrise complète de la chaîne datacenters + serveurs + applications et ne peut donc pas être mises en œuvre dans la plus part des centres dits « ouverts », c'est-à-dire acceptant tous types de serveurs.

D'autres tendances voient le jour… D'autres projets remplacent l'énergie électrique nécessaire à la climatisation par un apport d'eau froide via une source d'eau naturelle. L'impact sur l'environnement n'est pas négligeable et il faut en tenir compte afin de calculer le rendement de ces installations, ce qui peut le dégrader sensiblement. Une démarche intéressante reste cependant la modularité des salles informatiques, démarche déjà initiée sur le marché. L'enjeu est de monter une infrastructure rapidement, pour des montées en charge rapides ou pour des besoins temporaires. Prenez l'exemple des datacenters en containers de certains équipementiers : ils permettent l'hébergement de plusieurs baies avec un système compact de circulation de l'eau pour le refroidissement et le cheminement des connexions électriques et réseaux.

De plus, ce système est adapté au « cloud computing » car il suit les besoins en infrastructure « à la demande ». Par contre, les rendements énergétiques vont dépendre de la technologie de refroidissement choisie. Les datacenters en containers qu'on peut voir sur le marché utilisent tous un réseau d'eau froide pour le refroidissement des machines. Or l'énergie utilisée pour refroidir l'eau ne permet pas d'effectuer de véritables économies.

Haute densité et efficacité énergétique sont intimement liées ; de nombreuses pistes sont explorées pour combiner haute densité et écologie tant au niveau des infrastructures, que des matériaux ou encore des matériels. La révolution numérique porte en elle les germes d'une nouvelle révolution écologique : l'Internet Vert.


Nicolas Aubé
Président de CELESTE


Avec "Marilyn", le nouveau concept de datacenter écologique haute densité, CELESTE veut montrer qu'il est possible de réaliser un centre informatique haute-densité sans utiliser d'eau pour le refroidissement. Celui-ci est réalisé uniquement par l'air, qui circule à travers les étages. Pendant 95% de l'année, l'air extérieur est injecté et éventuellement mélangé à l'air extrait des salles. Le rendement (P.U.E.) du site est estimé à 1,3 ; soit une réduction de 35% par rapport au ratio d'usage. Le site affiche une densité jusqu'à 10 kVA par baie.
Plus d'info : www.marilyn-datacenter.com - 01 70 17 60 20

(1) La disponibilité du service est calculée en fonction de la redondance des équipements et de l'ensemble des composants de l'infrastructure.
En savoir plus : http://www.celeste.fr


Retour page précédente

Pub
2at8 , captation audio / enregistrement sonore 2at8 - spécialiste captation audio / enregistrement sonore
Communiqués les plus consultés :
    Lille-communiques.com dans les autres régions
    Pour retrouver l'ensemble des communiqués de presse diffusés sur notre plateforme :