1st European collaborative IT BtoB webmagazine

Comment le secteur de l’hébergement a radicalement changé sa vision en trois ans.

publié le mercredi 21/10/2009

- Data Centers -
Chiffre d'affaires par baie et chiffre d'affaires par watt

Comment le secteur de l'hébergement a radicalement changé sa vision en trois ans.

Témoignage de Frédéric Vannière, Directeur technique de Planet-Work.

Mars 2006, méga-pannes, les serveurs surpris en péché de gourmandise
On peut déterminer à quand remonte le début de toute l'attention portée à l'économie d'énergie dans les datacenters. La date est mars 2006. C'est à ce moment que se déclenche une série de pannes électriques chez le plus gros hébergeur, en fait plutôt un hébergeur d'hébergeurs, la filiale française de Redbus InterHouse. Le lieu : Courbevoie. A cette époque, Redbus hébergeait les serveurs de grands prestataires comme Amen et OVH. Plusieurs coupures de courant spectaculaires se produisent, dont l'une survient trop tôt après une précédente pour que les onduleurs aient eu le temps de se recharger. Des milliers de sites web sont impactés, on estime que 30 à 50% du web français est tombé en panne. Cette méga panne laisse un souvenir amer. Après avoir évoqué une défaillance humaine, des audits font apparaître que les serveurs-lames se montraient trop gourmands en alimentation électrique.

Intel proposait des processeurs qui étaient gros consommateurs de courant, comme les Pentium IV, dont tout le monde se disait pourtant satisfait : pour 300-400 euros par mois, somme très accessible, on avait une baie complète dans laquelle il était facile de loger 42 serveurs, et personne ne se préoccupait de la consommation électrique. Les baies bon marché rentabilisaient les installations de datacenters où de gros investissements avaient été consentis. Les pannes à répétition chez Redbus furent le déclencheur d'une prise de conscience : les excès devaient cesser, il fallait s'évertuer, pour chaque baie, à rester sous le seuil de consommation prévu par le constructeur, disons par exemple 1500 watts par baie. Les charges devaient être étalées sur davantage de baies, et d'autres efforts de remises aux normes s'imposaient : onduleurs, dispositifs de sécurité, ce à quoi il faut ajouter sur la période plus récente une hausse du prix du mètre carré en ville. Tout ce financement se fit par des hausses de tarifs, on vit un hébergeur multiplier soudainement ses tarifs par deux.

La chasse aux watts superflus
Chez Planet-Work, déjà avant ces événements nous avions commencé à considérer que les serveurs consommaient trop. Par souci de consommer moins, nous n'avions par exemple aucun processeur Pentium IV, lui préférant ceux d'AMD, alors moins gourmands. Nous observions que des hébergeurs concurrents s'équipaient de machines Dell à processeur Xeon, pour une consommation de 500-600 watts, tandis que nous faisions la même chose avec 100 watts. Mais lorsque Intel évolua vers les architectures Core, nous sommes passés à Intel. A présent, tout le monde s'est à peu de choses près aligné, tout le monde a mis un terme à la surconsommation d'énergie. Il faut savoir que quand un serveur consomme 100 watts, son alimentation utilise 120 watts, et qu'avec tous les dispositifs de sécurité et de climatisation autour on arrive à 300 watts de consommation pour une machine.

Dans la phase où nous sommes actuellement, nous allons plus loin : nous mettons l'accent sur l'adaptation du serveur au besoin du client. Le plus petit serveur que nous proposons aujourd'hui est capable de couvrir énormément de besoins, et nous mettons en place des serveurs ayant un important rendement au niveau alimentation. Quand vous pouvez passer d'une efficacité énergétique de 70% à une efficacité de 95%, le bond est significatif. Il y a aussi des décisions d'apparence simple qui contribuent à l'économie et à l'efficacité. C'est ainsi que nous avons configuré sur les serveurs des ventilateurs tournant à la vitesse minimum, ce qui fait économiser 10 à 15 watts par machine. Autre exemple de choix simple, nous n'utilisons jamais de double alimentation, parce que le supplément d'énergie consommé alors serait de l'ordre de 10-20%. Avec deux alimentations, chacune tourne à la moitié de sa capacité car chacune a un rendement optimal à une certaine utilisation, sans oublier les pertes énergétiques. Pour nous, la double alimentation est un argument commercial, sans plus.

Virtualiser, optimiser
Nous voyons donc, en résumé, que sur le plan purement matériel il peut se produire, si l'on n'y prend pas garde, une accumulation de facteurs impactant négativement la consommation : serveurs à double processeur, machines anciennes non optimisées, doubles alimentations, ventilateurs non réglés...Mais ce n'est pas tout. Si vous désirez réduire l'énergie consommée, vous avez le choix. Soit vous prenez des serveurs basse consommation et vous en logez beaucoup dans une baie pour vendre au final du service moins cher. Soit vous vous tournez vers la virtualisation : c'est le choix que nous avons fait. Placer tout l'effort sur le matériel engendre des inconvénients et ajoute de la complexité : il faut gérer ce matériel, les pannes, le stock. Pour schématiser, la virtualisation consiste à prendre une grosse machine consommant certes une dose d'énergie non négligeable, mais en la transformant en plusieurs petites machines. Cette approche possède elle aussi ses petits inconvénients, qu'il faut apprendre à gérer. Par exemple, comme il y a plusieurs clients sur une seule machine, il suffit que l'un d'eux utilise beaucoup de ressources pour impacter les autres. Nous échappons à ce problème par une gestion des serveurs par nos propres équipes.

En tant qu'hébergeur, il faut être capable d'opérer des répartitions et d'optimiser les sites des clients. A l'inverse, lorsque c'est le client qui gère directement son serveur, nous n'avons pas la main sur les réglages d'optimisation : il peut arriver que subsistent dans certains programmes des écritures fréquentes sur le disque dur et que personne ne s'en rende compte, alors que cela ralentit tous les clients. Mais quand c'est nous qui sommes en charge du serveur, nous recherchons tous les moyens d'optimisation, notamment d'optimisation des ressources. Si un client vient vers nous pour demander un deuxième serveur, nous pouvons parfois optimiser le serveur existant et éviter l'achat d'un second serveur. Auparavant, on changeait les serveurs, ou on en rajoutait. Désormais nous allons plutôt consolider les serveurs et virtualiser. Le but du jeu est de réaliser le maximum de chiffre d'affaires par watt consommé, alors que naguère les gens du métier cherchaient à réaliser le maximum de chiffre d'affaires par baie. Il y a un changement de paradigme. Bénéfice consommateur de l'approche par la virtualisation et l'optimisation : le client n'a pas vu de hausse sur son tarif depuis longtemps !

 

Autres articles sur le même sujet :

Mots clefs :

Trouver un partenaire dans votre région