Comment construire un datacenter pour son entreprise ?

De nos jours, construire son propre datacenter est chose courante. Pour ce faire, les entreprises ont besoin d’aide. Il existe effectivement plusieurs étapes à franchir, de l’extérieur jusqu’à l’intérieur. Chaque point devra ainsi être parfaitement étudié. Cet article fournit des conseils véritablement utiles pour ceux qui veulent construire un datacenter.

Construire un datacenter : focus sur l’infrastructure

Construire un datacenter est un immense défi à relever. Chacun des critères que l’on choisit exige un prompt engagement. Alors premièrement, le bâtiment devrait  remplir toutes les conditions pour atteindre les meilleurs paramètres énergétiques.

L’endroit

D’une part, construire un datacenter ne se fait pas à partir de zéro. Dans ce cas, il pourra atteindre facilement des niveaux de certification plus élevés et des bons paramètres énergétiques. D’abord, il devrait se trouver dans une région sismiquement stable, en dehors des zones inondables. Puis, un accès de haute qualité à l’énergie électrique et à la connectivité Internet sont très utiles. Deux pistes de fibre optique indépendantes aussi devraient déjà être sur place.  En fait, établir une deuxième fibre nécessite beaucoup plus de temps de construction et de budget.

D’autre part, il peut s’agir d’une rénovation, où le centre intègrera un bâtiment déjà existant. Cette optique permet de réduire considérablement les coûts.  Par contre, il est radical de bien analyser l’état actuel du bâtiment. Les sols doivent obligatoirement être résistants structurellement, avec une capacité portante de 200kg par mètre carré au minimal. Par ailleurs, le toit devrait également être tenace vu qu’il sera à la charge d’une partie de l’équipement et d’autres composants.

La puissance

Comme on le sait déjà, être puissant en termes d’énergie est la base pour ceux qui veulent construire un datacenter. C’est la raison pour laquelle il doit être alimenté par deux voies d’énergies indépendantes. Les petites entreprises peuvent utiliser une seule sous-station, mais chaque machine doit être alimentée par deux voies indépendantes. Quant aux data centers qui prévoient d’utiliser plus de 2 mégawatts, ils peuvent opter pour les solutions d’alimentation uniques sans batterie comme les onduleurs dits dynamiques ou rotatifs. Ceux-ci assemblent à la fois un transformateur, un onduleur et un moteur-générateur.

Il est véritablement important d’investir pour un onduleur de haute qualité pour éviter les coûts élevés pour les divers frais de maintenance.

Le refroidissement

Le refroidissement, une partie nécessaire d’un datacenter, est en fait une question d’allées froides et chaudes.  Aujourd’hui, la méthode préférée est le refroidissement libre, fonctionnant mieux avec un extérieur froid. L’air extérieur froid est utilisé tout en économisant de l’énergie électrique.

Cependant, il existe également un type normal de climatisation à détente directe (DX). Les unités DX sont moins chères à l’achat, mais plus chères à long terme. Ils sont mieux utilisés pour refroidir de faibles quantités de chaleur.

La sécurité

Bien que l’infrastructure soit coriace, les données doivent toujours être protégées des incendies et des accès non autorisés. Même les plus petites salles de serveurs devraient avoir au moins une alarme incendie et des extincteurs pour les appareils électriques. On utilise en général les systèmes de détection automatique d’incendie et de chaleur mais il existe également des alternatives moins chères comme l’utilisation de l’eau déminéralisée ou du sodium.

Par ailleurs, les caméras de surveillance, les portes codées et les agents de sécurité sont très importantsLa surveillance des températures et du refroidissement l’est également.

Construire un datacenter : qu’en est-il des équipements cloud ?

Après avoir défini les critères radicaux de l’infrastructure en vue de construire son datacenter, place aux équipements. Avec l’évolution grandiose de la technologie de nos jours, les applications exigent beaucoup des technologies de réseau.

Le choix du réseau

Ici, deux choix se présentent. Le premier est l’approche traditionnelle à trois couches : accès, agrégation et cœur, le deuxième est la nouvelle topologie Leaf-Spine. Pour la plupart des data centers, l’architecture à trois parties est entièrement suffisante. Pourtant, avec son adoption du protocole Spanning Tree ou STP, elle est aujourd’hui considérée trop lourde et peu efficace.  Par ailleurs, la nouvelle conception leaf-spine utilise un réseau de commutateurs de dorsale (spine) et de point de terminaison (leaf) dans une topologie à maillage complet. Alors, cette conception permet un débit total plus élevé et une latence plus faible que la première architecture au même coût.

L’architecture leaf-spine est de nos jours la plus recommandée. Puisque chaque composant important est doublé dans le système, les défaillances du réseau ne rendront pas le point de terminaison inaccessible.

Les serveurs

Avant de construire un datacenter, il est primordial de connaître les serveurs à adopter. Les serveurs diffèrent selon leurs formes et tailles, à citer la tour, le rack ou la lame. Les formats tour et rack sont des serveurs entièrement autonomes. Quant aux serveurs lames, ils nécessitent un châssis spécial qui fournit l’alimentation, le refroidissement, la connectivité et la gestion partagées à tous.

Avec les serveurs lames, l’ensemble du châssis peut tomber en panne, exigeant par la suite un autre châssis complet. Pourtant, cela représente plus de coûts par rapport à un serveur rack ou tour. Les serveurs lames sont donc plus adéquats pour les grandes quantités. C’est dans cette optique qu’ils témoignent d’une maintenance moins chère et d’une gestion plus facile.

Il y a également une autre tendance intéressante sur le marché tchèque. Les fabricants de matériel ont élaboré des serveurs haute densité avec des alimentations efficaces et un petit domaine de panne. Ils se présentent sous la forme de petits châssis pour deux à huit serveurs avec alimentation et gestion partagées.

Il est bon de savoir qu’une densité de serveurs plus élevée signifie une concentration plus élevée de chaleur perdue. Alors, il requiert une solution de refroidissement plus puissante.

Le stockage des données, un point clé pour construire un datacenter

La méthode de stockage des données dans un datacenter peut être réalisé directement dans le centre par un disque local ou via une structure complexe de baies de disques.

DAS : Direct Attached Storage

Avec le niveau de stockage DAS, tous les disques sont connectés directement à un serveur. Les données sont rendues disponibles grâce à un logiciel spécial, utilisé par le serveur d’hébergement. Les clients se connectent ensuite au serveur hôte. Dès lors, en cas de panne du serveur hôte, les données deviennent inaccessibles.

NAS : Network Attached Storage

Le NAS est un espace de stockage connecté au réseau avec un accès au niveau des fichiers. L’utiliser permet un accès simultané à plusieurs clients. Témoignant de rapidité, de fiabilité et de sophistication, NAS est dorénavant comparable à une solution SAN.

SAN : Storage Area Network

Le SAN ou réseau de stockage définit un réseau haut débit réservé au transfert de données entre les serveurs et le stockage par blocs (baies de disques). Les protocoles les plus courants sont iSCSI et Fibre Channel. Les réseaux sont non seulement fiables et rapides, mais fournissent également des performances très élevées. Cependant, ils sont aussi les plus coûteux et les plus difficiles à préparer.

Bien que le stockage le plus courant reste le DAS, un datacenter peut utiliser ces deux autres approches. Par ailleurs, le plus rapide est le SAN avec sa virtualisation.

Le fonctionnement du datacenter

La vocation d’un datacenter n’est pas complète sans la virtualisation, du cloud et du mantra de la haute disponibilité. Au fait, la baie de disques reste encore un grand coût à imputer.

En quoi la virtualisation est utile ?

Il est plus facile de déterminer les avantages du cloud en se basant sur les problèmes confrontés avec l’utilisation des serveurs physiques classiques. Ces derniers présentent plus souvent des défaillances au niveau du serveur. Le problème ne pourrait être résolu sans l’intervention d’un technicien or celui-ci pourrait être très loin du centre. Ainsi, la réparation est longuement retardée surtout  en cas de besoin de restaurer des sauvegardes à partir d’un matériel différent.

Cependant, la virtualisation des serveurs est une solution plus simple. Il s’agit de la séparation de l’interface utilisateur et du matériel physique. Dans une machine virtuelle, le matériel est presque totalement indépendant du physique. Ainsi, la restauration d’une sauvegarde sur une autre machine peut bien être effectuée puisqu’on dispose du  même environnement.

En outre, la virtualisation permet aussi de résoudre les problèmes de mise à niveau du matériel et allonge la durée de vie du système d’exploitation.

Bien choisir un hyperviseur

Avec l’emploi de la virtualisation, il faut encore choisir le bon hyperviseur. Au fait, il existe deux types de virtualisation complète qui diffèrent par l’emplacement de l’hyperviseur. Le premier est l’hyperviseur bare metal, installé à la place d’un système d’exploitation en le remplaçant entièrement. Un des plus réputés de ce modèle est VMware ESXi. Sa taille et sa simplicité le rend véritablement avantageux. En plus, le serveur se concentre sur une tâche et l’accomplit à merveille. Si bien que les serveurs peuvent fonctionner longtemps sans redémarrage, les mises à jour ne sont pas fréquentes. Par ailleurs, le principal inconvénient est son support matériel limité.

Le deuxième type s’appelle hyperviseur hébergé et marche dans l’environnement normal du système d’exploitation. Oracle VirtualBox ou VMware Workstation sont parmis les plus connus. Avec celui-ci, on a la possibilité d’utiliser n’importe quel matériel pouvant exécuter le système d’exploitation préféré.

Les avantages du cloud quand on veut construire un datacenter

Même si le cloud et la virtualisation sont différents l’un de l’autre, ils sont tout de même liés. La virtualisation offre des ressources de calcul à l’utilisateur final, tandis que le cloud lui permet de consommer facilement ces ressources en tant que service.

 L’utilisateur final d’un cloud ne loue pas un serveur spécifique, mais des ressources en général. Il s’agit généralement des performances du processeur, de la RAM, de l’espace de stockage et de l’accès au réseau. Cette technologie trouve sa place dans les sociétés à différentes unités organisationnelles. Ensuite, la virtualisation entre en jeu en isolant ces unités les unes des autres à travers un logiciel adapté. Une division informatique centrale s’occupe de superviser tout le processus, de s’assurer qu’une partie de l’infrastructure n’est pas surchargée et que les ressources vont là où elles sont nécessaires. Cette alternative est appelée cloud privé.

Au contraire,  le cloud public fonctionne de manière similaire, seulement au lieu de différentes divisions de la même entreprise.  Dans ce cas, la division informatique centrale est remplacée par le fournisseur de services cloud. Ce sont ces derniers qui supervisent l’utilisation de l’infrastructure et constituent ensuite la base du calcul des frais de location mensuels pour le cloud.

En général, même sur plusieurs plateformes, la migration de serveurs virtuels entre le cloud privé et le cloud public est assez simple. En fait il existe des normes ouvertes disponibles, telles qu’OVA ou OVF, ainsi que des outils de conversion qui facilitent également le déplacement.

L’exécution des applications dans le cloud

Pour les data centers créés à partir de zéro, le choix est large sur la plate-forme et le système d’exploitation.  Pour les data centers à infrastructure déjà existante, cela doit bien être planifié à l’avance.

Les systèmes d’exploitation modernes sont en général accompagnés par un support pour le matériel virtuel. Cela permet de déplacer un serveur physique dans un environnement virtuel sous sa forme actuelle, ou juste après l’installation de quelques pilotes. Des convertisseurs spéciaux, une simple copie ou des restaurations de sauvegarde suffisent pour l’effectuer.

Quand éviter la migration vers le cloud ?

Dans quelques cas, il est préférable de ne pas du tout migrer vers le cloud. La migration reste financièrement inviable ou totalement impossible. On peut citer principalement les applications nécessitant plus de ressources pour fonctionner. Cette migration est également déconseillée pour les applications nécessitant une latence réseau extrêmement faible. Et enfin, les systèmes qui fonctionnent avec du matériel physique spécifique réel comme une clé USB ou un lecteur de carte à puce valent bien mieux sans la migration.

Zoom sur les experts en technologie

Bien que tout soit bien mis en place, construire un datacenter n’est pas facile. Le projet peut être voué à l’échec sans avoir recours à des experts en technologies, anciennes ou nouvelles. Ces derniers seront, en effet, d’une aide précieuse pour donner vie au projet.

Sources & crédits Source : masterdc - Crédit :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Pin It on Pinterest