Data centers hyperscale

Data Centers Hyperscale : définition, constitution et avantages

Face au nombre toujours croissant d’appareils connectés à Internet, la demande en stockage et en capacité de calcul augmente de façon exponentielle. Comment les géants de technologie prévoient-ils de répondre à cette demande ? Réponse : les Data Centers Hyperscale.

En 2021, on a recensé plus de 600 centres de données hyperscale dans le monde et ce nombre continue de s’accroitre. Le plus grand d’entre eux, dénommé The Citadel Campus, atteint une superficie de 7,7 millions de pieds carrés et consomme pas moins de 650 MW d’électricité.

Mais que sont réellement les Data Centers Hyperscale et comment fonctionnent-ils ? La réponse dans notre dossier.

Que sont les Data Centers Hyperscale ?

Les Data Centers Hyperscale (DCH) sont des centres de données de grande taille détenues et exploitées par les grandes entreprises productrices de données. Les centres de données hyperscale sont donc des infrastructures conçues par des entreprises hyperscale, à l’instar de Google ou Amazon. Ces centres visent à répondre spécifiquement aux besoins de ces organisations.

En tant que centres de données, les Data Centers Hyperscale fournissent l’espace, l’électricité et le refroidissement nécessaire pour le fonctionnement du réseau. Mais les centres de données hyperscale vont beaucoup plus loin que les centres de données d’entreprise.

visite virtuelle microsoft azure data center

En effet, les datacenters de grande échelle gèrent de manière plus efficace l’espace au sol qu’ils disposent. Selon l’AFCOM, un centre de données reçoit l’appellation d’hyperscale si elle occupe au moins 10 000 pieds carrés. Par ailleurs, l’infrastructure doit comporter un minimum de 5 000 serveurs reliés à un réseau très haut débit.

Par ailleurs, contrairement aux centres d’entreprise, les Data Centers Hyperscale sont capables de traiter et de stocker d’énormes volumes de données. Cette performance s’accompagne d’un indicateur d’efficacité énergétique (PUE) proche de l’unité. À titre d’illustration, le PUE des centres hyperscale de Google est de 1,1. Celui des datacenters d’entreprise est compris entre 1,67 et 1,8 en moyenne.

Finalement, l’agilité est l’une des particularités des centres de données hyperscale. En effet, ces infrastructures sont en mesure d’évoluer rapidement pour répondre à la charge demandée par les clients hyperscale. Cette capacité permet aux CDH d’ajouter plus de puissance de calcul et plus d’équipements pour une scalabilité verticale et horizontale efficace.

Que comprennent les centres de données hyperscale ?

Afin d’assurer la performance des Data Centers Hyperscale, ceux-ci doivent remplir un certain nombre de conditions. Ces exigences sont valides pour tous les centres de données à grande échelle.

Des racks haute densité

L’utilisation de racks optimisés est fondamentale pour le bon fonctionnement d’un centre hyperscale. Plusieurs Data Centers Hyperscale disposent même d’armoires conçues sur mesure pour s’adapter aux équipements utilisés.

En effet, afin d’optimiser l’utilisation de l’espace, des racks de serveurs 70U à cadre ouvert sont disponibles depuis ces dernières années. Ces supports de taille plus haute sont conçus pour minimiser l’occupation au sol, faciliter le câblage et optimiser le refroidissement des serveurs.

 

Un refroidissement plus efficace

La technologie de refroidissement joue un rôle important pour le maintien de la performance d’un centre de données. En effet, la majorité des installations hyperscale utilisent un système CVC qui redirige l’air frais vers les allées. Ces systèmes HVAC évacuent l’air chaud vers l’extérieur mais occupent toutefois de l’espace supplémentaire.

Afin d’optimiser l’occupation de la salle des serveurs, la mise en place des technologies de refroidissement nécessite donc un travail continu. Aucune entreprise hyperscale n’est à l’abri de cette préoccupation. On citera par exemple Google qui a affirmé avoir modifié sa technologie de refroidissement 5 fois de suite.

Des besoins accrus en énergie

La consommation énergétique des Data Centers Hyperscale est la hauteur de leur taille. Certains centres hyperscale peuvent même consommer autant d’électricité qu’une petite ville. Un centre de données situé en Virginie en est le parfait exemple. L’infrastructure a en effet atteint un besoin d’un gigawatt d’électricité, soit l’équivalent de 700 000 foyers.

éoliennes data center

Cette forte demande en puissance électrique a donc poussé les entreprises hyperscale à s’implanter dans des endroits où l’électricité est moins chère. En outre, les investissements dans les sources d’énergie alternatives ont permis de contenir la hausse de la facture énergétique des centres hyperscale.

Une sécurité renforcée

Les centres hyperscale doivent bénéficier d’un niveau de sécurité élevé pour éviter toute tentative de vol. C’est d’ailleurs pour cette raison que les CDH sont implantés à l’écart de la circulation piétonne. Contrairement aux datacenters d’entreprise, les centres hyperscale emploient donc plus de personnel de sécurité.

D’autre part, la protection des données personnelles et financières de ses clients est également au centre des préoccupations des entreprises hyperscale. Les Data Centers Hyperscale sont donc conçues afin de minimiser les risques d’être victime d’une cyberintrusion. Chaque compartiment de l’infrastructure bénéficie donc d’une conception identique à un coffre-fort de données.

Comment Facebook a redéfini les centres hyperscale

Facebook fait partie des grandes entreprises productrices de données qui ont défini les lignes directrices de ce que devrait être un Data Center Hyperscale. En effet, Facebook a publié en 2014 le cahier des charges pour l’architecture des centres de données qu’il prévoyait de construire. Il en a profité pour transmettre aux fournisseurs ses besoins en nouveaux équipements informatiques.

Bien que le terme « hyperscale » n’ait pas été invoqué, ces fournisseurs ont repris les exigences de Facebook pour définir ce que seront les centres hyperscale. Voici donc comment se définit le tissu hyperscale de Facebook.

zeewolde data center facebook

Commutateurs réseau en couches désagrégées

Facebook a redéfini ce qu’était un cluster par le terme pod. Un pod ou un module réseau est une combinaison de 48 racks de serveurs qui comportent chacun son propre commutateur TOR. Les 48 commutateurs TOR se raccordent alors à 4 couches supérieures de commutateurs qui sont en réalité des switchs Fabric.

Cette topologie permet alors de garantir que chaque serveur du pod se connecte équitablement à l’intégralité du réseau. Ce dernier s’assurera ensuite de la répartition de la charge de travail vers les serveurs qui sont les plus adaptés.

Interconnexion des modules réseau

Les 4 couches de commutateurs de niveau supérieur forment ce que Facebook appelle le « spine plane ». Dans cette infrastructure, chaque commutateur du spine plane se connecte aux 48 switchs Fabric et pas un de plus.

C’est donc cet agencement fixe des commutateurs qui permet d’assurer le minimum de connexion des nœuds au réseau. Autrement dit, que le trafic qui entre au niveau du nœud n’est jamais supérieur au trafic qui en sort.

Toutefois, des exceptions peuvent apparaître lorsque le système de gestion de la charge de travail décide de réorienter les pics de charge vers des serveurs plus appropriés. Dans de tels cas, le système planifiera en conséquence les commutateurs Fabric.

Aménagement du bâtiment autour des pods

Lors de la construction du centre de données, tous les câbles réseau et électriques nécessaires aux pods sont intégrés au répartiteur du bâtiment. Ce répartiteur prendra également en considération l’installation potentielle de nouveaux pods.

data centers hyperscale

Un centre hyperscale est donc spécialement conçu pour être un composant à part entière d’un réseau global. Les Data Centers Hyperscale sont ainsi assimilés à un composant électronique qui occupe une superficie de plus de 100 000 pieds carrés.

Des serveurs interchangeables

Dans un centre de données hyperscale, les serveurs sont assimilés à de simples briques d’un ensemble plus vaste. En cas de défaillance ou de baisse de performance d’un serveur, on déconnecte celui-ci du réseau ou on le remplace.

Quels sont les avantages des Data Centers Hyperscale ?

Un refroidissement optimisé

L’alimentation électrique des technologies de refroidissement est un poste de coût important pour les centres de données. Les centres hyperscale peuvent quant à eux compartimenter les serveurs avec le plus de charges afin de concentrer la puissance de refroidissement vers ces nœuds.

Les centres de données hyperscale permettent également d’optimiser le flux d’air dans toute la structure. Ainsi, pour les charges de travail standard, il est possible d’orienter l’air chaud dans une certaine direction afin de réaliser un recyclage.

Des puissances électriques mieux réparties

Dans les installations en colocation, les blocs sont l’équivalent des lotissements résidentiels. Les racks compris dans ces blocs reçoivent alors une certaine quantité de puissance électrique (exprimée en kilowatt) provenant de l’alimentation principale.

Lorsqu’un nouveau locataire désire acquérir un espace dans un centre de données hyperscale, il effectue sa souscription en nombre de kilowatts. Cette répartition permet de mieux allouer les puissances électriques aux différents locataires.

data centers cooling

Suppression des redondances d’alimentation

Afin de garantir la disponibilité du service, plusieurs centres de données disposent de sources d’alimentation redondantes y compris des sources secondaires. Dans les centres hyperscale, les systèmes de gestion rendent désormais possible la redondance de la charge de travail.

Cette capacité permet aux centres hyperscale de réduire les coûts liés à l’électricité tout en se débarrassant de la redondance d’alimentation. Mais cette pratique offre également l’avantage de réduire les coûts d’équipement et de construction.

Un meilleur équilibrage des charges de travail

Les centres de données hyperscale permettent une meilleure surveillance et un meilleur contrôle de la charge de travail des serveurs. En effet, un serveur surchargé affecte la performance des équipements et des autres serveurs à proximité. Lorsqu’une telle situation apparaît, le gestionnaire répartit la charge vers des processeurs plus appropriés ou des serveurs non utilisés.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Pin It on Pinterest