Data Center – LeBigData.fr https://www.lebigdata.fr Le magazine du Big Data et du Cloud Computing Wed, 09 Jun 2021 08:03:49 +0000 fr-FR hourly 1 186642072 Amazon investit $3 milliards dans des Data Centers en Espagne https://www.lebigdata.fr/amazon-data-centers-espagne Wed, 09 Jun 2021 09:00:20 +0000 https://www.lebigdata.fr/?p=26082 Pour le développement de sa 7e région AWS en Espagne, Amazon entrevoit un investissement de 2,5 milliards d’euros soit 3,04 …

Cet article Amazon investit $3 milliards dans des Data Centers en Espagne a été publié sur LeBigData.fr.

]]>
Pour le développement de sa 7e région AWS en Espagne, Amazon entrevoit un investissement de 2,5 milliards d’euros soit 3,04 milliards de dollars. Un fonds qui sera utilisé dans la construction de nouveaux Data Centers à Aragon, une région du nord-est espagnole. La société annonce l’ouverture des infrastructures mi-2022.

La construction des data centers AWS en Espagne enclenchée

Ça y est. Le compte à rebours est déclenché pour l’unité de service de cloud computing d’Amazon. L’entreprise vient de se prononcer sur un de ses sites internet. L’inauguration des nouveaux data centers en Espagne aura bien lieu avant 2023. Aussi, une somme de 3 milliards de dollars a été prévue en guise de financement.

Comment seront dispatchés ces 3 milliards de dollars ?

Etabli sur une durée de 10 ans, ce montant comprend l’amélioration de l’état des lieux c’est-à-dire les dépenses en capital. Sont également pris en compte, l’édification des Data Centers, les importations d’équipement sans oublier les charges de fonctionnement. C’est le cas, par exemple, de la rémunération salariale des 1 300 employés qui feront tourner cette partie de la société.

AWS voient les choses en grand en Espagne

Bien que ce montant semble important, ce n’est pas surprenant de la part d’Amazon. En effet, à chaque fois que l’enseigne établit une région AWS, cela s’accompagne toujours d’un investissement conséquent pour la construction de data centers. C’était le cas pour la première région AWS au Moyen-Orient, à Bahreïn où deux data centers ont été développés. Même chose pour la 23e région AWS en Afrique du Sud, qui a permis d’améliorer considérablement la qualité des infrastructures de serveurs de la région.

Certes, il s’agit des premiers data centers d’AWS en Espagne. Toutefois, ce ne sont pas les premières infrastructures numériques à être implantées dans le pays. Notons qu’AWS possède déjà 2 sites Direct Connect en Espagne, qui s’adressent aux grandes entreprises et 2 sites Edge exploités par les services CDN et DNS d’Amazon.

Cet article Amazon investit $3 milliards dans des Data Centers en Espagne a été publié sur LeBigData.fr.

]]>
26082
Data Center, l’Européen Yondr se lance aux Etats-Unis avec $2 milliards https://www.lebigdata.fr/yondr-conquete-usa-data-center Thu, 27 May 2021 09:00:26 +0000 https://www.lebigdata.fr/?p=25677 A l’heure actuelle, les entreprises du cloud demandent de plus en plus d’espace au sein des data centers. Ce besoin …

Cet article Data Center, l’Européen Yondr se lance aux Etats-Unis avec $2 milliards a été publié sur LeBigData.fr.

]]>
A l’heure actuelle, les entreprises du cloud demandent de plus en plus d’espace au sein des data centers. Ce besoin croissant ne rend pas les investisseurs indifférents. En effet, un grand nombre d’entre eux envisage de miser sur l’essor des infrastructures informatiques mondiales. Yondr figure parmi les développeurs ayant passé à l’action en Europe et très prochainement aux Etats-Unis.

Une percée sur le marché américain en vue

Le groupe Yondr, qui se trouve à Amsterdam, a bâtit une multitude de data centers en Europe. Ceux-ci ont été construits pour le compte de nombreuses entreprises cloud dont les plates-formes cloud hyperscale et les fournisseurs de cloud de niveau 2. A ce jour, Yondr envisage de répéter le processus, mais cette fois-ci outre-Atlantique. Les Etats-Unis seront alors les prochaines cibles, suivis de près par le Canada et l’Amérique Latine. Les moyens, eux, ne manquent pas puisque l’enseigne a préparé des milliards de dollars en guise de financement.

Yondr lève une somme colossale pour réaliser son projet aux Etats-Unis

Un montant de 2 milliards de dollars a été rassemblé grâce au financement d’investisseurs privés. L’on peut souligner l’importance de cette somme, étant donné que la société, elle, n’a que 3 années d’expériences sur le marché. Des emplacements ont ainsi déjà été repérés à l’intérieur de ces trois pays. C’est ce qu’a affirmé Eanna Murphy lors d’un communiqué à DCK.

Sur quoi capitalise Yondr dans sa lancée vers les Etats-Unis ?

L’intérêt de Yondr s’est porté sur des marchés comme Dallas, la Silicon Valley et la Virginie du Nord pour la construction. Néanmoins, face à la férocité de la concurrence, les développeurs n’ont le choix que de baisser les prix. Cette situation pousse de nombreux acteurs à signer des contrats avec de gros clients.

En ce qui concerne Yondr, celui-ci compte triompher dans ce monde de rivalité incessante. Il entrevoit, en ce sens, de combler le besoin exact de chaque entreprise cloud, et ce, au meilleur prix. Comme le dit Murphy, l’enseigne sera focalisée sur l’excellence de l’exécution.

Focus sur les deux modèles de data centers Yondr

Pour ses deux conceptions, l’enseigne a mis en place un système d’approvisionnement. Grâce à celui-ci, les délais de livraison quant à la capacité des nouveaux data centers seront assurés. Ces délais de livraison restent, toutefois, à ce jour, méconnus.

Le premier modèle, baptisé HyperBloc se destine aux grands campus. Son évolution se fait par paliers allant de 8 MV à 12 MV, soit un total de 300 MV. Le deuxième, MetroBloc, lui, se réfère à des zones urbaines denses. L’accroissement en blocs de celui-ci varie entre 4 MV à 6 MV, pour un total de 30 MV.

Cet article Data Center, l’Européen Yondr se lance aux Etats-Unis avec $2 milliards a été publié sur LeBigData.fr.

]]>
25677
Data Center et protection électrique : tout savoir sur les onduleurs ou ASI https://www.lebigdata.fr/data-center-onduleurs-eaton-livre-blanc Wed, 19 May 2021 09:00:51 +0000 https://www.lebigdata.fr/?p=25286 Un onduleur ou système d’alimentation sans interruption est le meilleur moyen d’assurer la protection électrique d’un Data Center ou d’équipements …

Cet article Data Center et protection électrique : tout savoir sur les onduleurs ou ASI a été publié sur LeBigData.fr.

]]>
Un onduleur ou système d’alimentation sans interruption est le meilleur moyen d’assurer la protection électrique d’un Data Center ou d’équipements électriques. Pour tout savoir sur ces appareils, découvrez l’excellent livre blanc publié par Eaton : ” Principes de base des onduleurs “.

L’électricité est indispensable aux Data Centers. Les serveurs consomment de grandes quantités d’énergie, et doivent fonctionner en permanence pour répondre aux besoins des utilisateurs.

Au-delà d’assurer une fourniture suffisante, les professionnels du secteur cherchent à réduire la consommation au maximum. Le but est de réaliser des économies, mais aussi de réduire l’impact environnemental du Big Data.

 

Toutefois, un aspect tout aussi essentiel est souvent occulté. Afin de satisfaire les exigences des usagers, il est impératif que l’alimentation électrique des Data Centers soit totalement fiable.

Pourquoi la protection électrique des Data Centers est-elle capitale ?

À l’heure où les entreprises sont ” data-driven “, l’informatique est indispensable à leur fonctionnement et la disponibilité est capitale. En effet, la moindre coupure de courant peut avoir de graves conséquences pour une entreprise en cas d’interruption de la productivité.

Il en va de même pour les creux de tension et les surtensions, qui peuvent aussi endommager les serveurs. Il faut savoir qu’une coupure de courant d’un à peine un quart de seconde peut entraîner une indisponibilité des équipements allant de 15 minutes à plusieurs heures.

Selon les experts, les perturbations d’alimentation font perdre entre 200 et 570 milliards de dollars à l’économie américaine chaque année. L’effet boule de neige se révèle donc désastreux.

Pourtant, le courant secteur n’est en réalité pas fiable à 100%. Aux États-Unis, sa fiabilité est de 99,9% ce qui représente tout de même un risque de neuf heures de pannes de secteur par an.

Précisons également que la loi autorise des variations de courant électrique secteur pouvant aller jusqu’à 8,3% par rapport aux annonces des fournisseurs, ce qui peut causer d’importants problèmes aux équipements.

Paradoxalement, les systèmes de stockage, serveurs et périphériques réseau modernes reposent sur des composants miniaturisés à l’extrême et donc moins résistants aux risques de panne électrique que l’ancienne génération.

Les onduleurs, au coeur de l’architecture de protection électrique des Data Centers

Il est donc essentiel de mettre en place une architecture de protection électrique à toute épreuve. Installer des groupes électrogènes n’est pas suffisant, car ces équipements démarrent lentement et ne sont pas à l’abri des pics de tension et autres perturbations.

De même, les parasurtenseurs peuvent être d’un précieux secours en cas de pics de tension, mais se révèlent inutiles dans une situation de perte de puissance, de sous-tension ou de baisse de tension. En parallèle, les coûts doivent être maîtrisés pour éviter que les dépenses ne s’envolent.

Par conséquent, les systèmes d’alimentation sans interruption (ASI), aussi appelés ” onduleurs “, sont indispensables pour assurer la protection électrique des Data Centers.

Alors qu’est-ce qu’un onduleur ? Il s’agit d’un appareil capable de fournir une alimentation de secours en cas de panne de secteur. Cette alimentation de secours dure suffisamment pour permettre d’arrêter correctement les équipements, et donc d’éviter les pertes de données.

Au contraire, elle peut permettre d’assurer la continuité du fonctionnement des charges requises en attendant qu’un groupe électrogène prenne le relais. En outre, l’onduleur conditionne l’alimentation pour empêcher la détérioration du matériel électronique par les creux de tension ou les surtensions.

Un livre blanc pour découvrir les différents types d’onduleurs et leurs accessoires

Afin d’aider les professionnels de Data Centers et tous ceux en charge de la protection des équipements électriques d’un bâtiment à concevoir et à déployer une protection électrique basée sur les ASI, l’entreprise Eaton publie un livre blanc extrêmement instructif intitulé ” Principes de base des onduleurs “.

À travers ce document, vous pourrez découvrir tout ce que vous devez savoir sur les onduleurs et leurs différentes catégories. De cette manière, vous serez en mesure de choisir le meilleur système et les accessoires nécessaires.

Vous apprendrez à distinguer les trois principaux types d’ASI : systèmes à simple conversion, systèmes à double conversion et systèmes multi-modes.

Ce livre blanc révèle aussi les principaux critères à prendre en compte pour choisir un onduleur : topologie, phases, puissance nominale, facteur de forme, disponibilité, réparabilité, modularité…

Enfin, ce ” white paper ” présente les différents accessoires et applications permettant d’optimiser le fonctionnement des ASI : télésurveillance, gestion d’énergie, entretien, unités de distribution de l’alimentation…

Un onduleur ou ASI permet d’assurer la fiabilité de l’alimentation électrique d’un Data Center, et sa protection. Elle permet aussi d’optimiser et de réduire les coûts. Pour choisir le meilleur modèle et répondre à vos besoins, téléchargez dès à présent le livre blanc complet d’Eaton sur le sujet.

Cet article Data Center et protection électrique : tout savoir sur les onduleurs ou ASI a été publié sur LeBigData.fr.

]]>
25286
Stockage de données, censure : Apple accusé d’être soumis à la Chine https://www.lebigdata.fr/stockage-de-donnees-chine-apple-soumis-chine Tue, 18 May 2021 20:31:09 +0000 https://www.lebigdata.fr/?p=25499 Après une enquête de plusieurs années, le New York Times publie un rapport sur les activités d’Apple et de Tim …

Cet article Stockage de données, censure : Apple accusé d’être soumis à la Chine a été publié sur LeBigData.fr.

]]>
Après une enquête de plusieurs années, le New York Times publie un rapport sur les activités d’Apple et de Tim Cook en Chine. Le rapport indique que la firme à la Pomme a largement cédé le contrôle de ses Data Centers situés à Guiyang et dans la région de la Mongolie intérieure au gouvernement chinois.

Sécurité garantie pour les données, selon Tim Cook

Dans ces Data Center, Apple prévoit de stocker les données personnelles de ses clients chinois sur ces serveurs informatiques. Tim Cook, directeur général d’Apple, a déclaré que les données étaient en sécurité. Mais au centre de données de Guiyang, dont Apple espérait réceptionner le mois prochain, et un autre dans la région de la Mongolie intérieure, Apple a en grande partie cédé le contrôle à une entreprise publique chinoise

Concrètement, les employés de l’État chinois gèrent physiquement les ordinateurs. Apple a abandonné la technologie de cryptage utilisée ailleurs après que la Chine l’ait interdit. Et les clés numériques qui déverrouillent les informations sur ces ordinateurs sont stockées dans les Data Centers qu’elles sont censées sécuriser.

Apple, un pion du gouvernement chinois ?

data center définition

Ce système de contrôle signifie une absence de confidentialité pour les utilisateurs chinois d’Apple, la société ayant pratiquement cédé tout contrôle sur les données au gouvernement chinois. L’enquête de New York Times révèle même qu’aucun employé d’Apple n’est présent dans le bâtiment. Apple n’a pas non plus les clés de cryptage.

Par ailleurs, il s’avère qu’Apple aurait peur de contredire le gouvernement chinois et la société n’hésite pas à censurer, bloquer ou supprimer de manière proactive des applications et des contenus. Une analyse du Times montre que des dizaines de milliers d’applications d’actualités étrangères par exemple ou de messageries cryptées ont disparu de l’App Store chinois au cours des dernières années. Apple est devenu un rouage dans la machine de censure d’un gouvernement qui contrôle l’Internet.

Cet article Stockage de données, censure : Apple accusé d’être soumis à la Chine a été publié sur LeBigData.fr.

]]>
25499
AMD, Google et Microsoft explosent leurs objectifs grâce au Cloud et aux Data Centers https://www.lebigdata.fr/amd-google-microsoft-revenus-cloud-data-centers Thu, 29 Apr 2021 10:06:58 +0000 https://www.lebigdata.fr/?p=24890 Au premier trimestre 2021, les revenus des principaux acteurs de l’industrie du Cloud se sont envolés. Les prévisions des analystes …

Cet article AMD, Google et Microsoft explosent leurs objectifs grâce au Cloud et aux Data Centers a été publié sur LeBigData.fr.

]]>
Au premier trimestre 2021, les revenus des principaux acteurs de l’industrie du Cloud se sont envolés. Les prévisions des analystes ont été surpassées. Le fabricant de puces AMD a doublé ses revenus liés aux Data Centers, tandis que Google et Microsoft profitent d’une forte croissance grâce au nuage informatique.

Le Cloud Computing est de plus en plus adopté. Les entreprises de tous secteurs se tournent vers cette technologie, afin de remplacer leurs infrastructures sur site et profiter de nombreux avantages.

Alors quelles sont les conséquences pour les fournisseurs de services Cloud et les fabricants de hardware ? Le Cloud Computing est-il réellement rentable ?

Pour l’heure, les investissements de Google, Microsoft et AMD semblent porter leurs fruits. Grâce au Cloud, les revenus de ces entreprises se sont envolés au premier trimestre 2021.

AMD double ses revenus Data Center

Lors de l’annonce de ses résultats financiers pour le premier trimestre 2021, AMD vient de surpasser toutes les prévisions des analystes. Son chiffre d’affaires atteint 3,45 milliards de dollars, ce qui représente une hausse de 93% en un an.

La croissance concerne tous les segments de l’entreprise, malgré des ruptures de stock constantes pour tous les CPU et GPU grand public. Un phénomène lié à une demande record, et à des perturbations logistiques liées à la pandémie de COVID-19.

En dépit de la pénurie, ce segment a rapporté 2,1 milliards de dollars à AMD sur la période. C’est une hausse de 46% par rapport à l’an dernier, principalement liée au succès des gammes Ryzen et Radeon.

En outre, AMD a aussi récupéré des parts du marché des PC de bureau suite à la percée d’Intel au précédent trimestre. La firme excelle aussi sur le segment des notebooks, et bat son record de revenus pour les processeurs mobiles pour le sixième trimestre d’affilée.

Toutefois, c’est le groupe EESC qui rencontre le plus grand succès. Cette division, en charge des puces de Data Center et des consoles de jeux vidéo, rencontre une croissance de 286% par rapport à l’an dernier. Ses revenus atteignent 1,35 milliard de dollars.

Cet essor est principalement lié aux ventes de processeur EPYC, qui ont plus que doublé au cours du trimestre. Les processeurs EPYC Rome et Milan se sont vendus comme des petits pains, et les revenus Data Center de AMD ont donc fortement contribué aux revenus massifs de l’entreprise.

La marge brute de AMD reste de 46%, sans réel changement. Ses objectifs pour le prochain trimestre sont de 3,6 milliards de dollars, soit 86% de hausse par rapport à la même période en 2020.

Ses objectifs pour l’année complète sont de 1,3 milliard de dollars, ce qui signifie qu’elle s’attend à ce que les performances se poursuivent tout au long de l’année. Ce revenu serait une croissance de 50% par rapport à l’an passé, alors que les prévisions étaient auparavant de 37%. Elles ont été revues à la hausse en raison d’une augmentation de la demande sur le marché du Data Center.

Les revenus de Google Cloud en hausse de 46%

Google Cloud rencontre aussi une forte croissance pour le premier trimestre 2021. Lors de l’annonce de ses résultats trimestriels, la maison-mère Alphabet annonce un chiffre d’affaires de 4,047 milliards de dollars pour la division. C’est une hausse de 46% par rapport à l’an dernier, ou les revenus s’élevaient à 2,78 milliards de dollars.

Selon la CFO de Google et Alphabet, Ruth Porat, “ ces revenus reflètent une force et une opportunité à la fois pour la GCP (Google Cloud Platform) et pour Workspace “. La perte d’exploitation s’élève tout de même à 974 millions de dollars, mais cela reste nettement moins que l’année précédant où le déficit atteignait 1,73 milliard de dollars.

Quoi qu’il en soit, Alphabet se concentre sur le long terme et continue à investir “ agressivement ” dans le Cloud pour nourrir la croissance. En outre, Porat souligne le fait que cette hausse de revenus témoigne de l’essor du Cloud Computing dans sa globalité. Les revenus de Workspace profitent à la fois d’une croissance en termes d’utilisateurs, et de revenu moyen par utilisateur.

Au total, pour le premier trimestre 2021, Alphabet enregistre un chiffre d’affaires de 55,3 milliards de dollars en hausse de 34%. Les prévisions des analystes, à 51,68 milliards de dollars, ont été dépassées.

Comme à l’accoutumée, une majeure partie de ces revenus sont liés à la division Google Services avec un CA de 51,18 milliards de dollars. Plus spécifiquement, les revenus publicitaires de Google atteignent 44,68 milliards de dollars, en hausse par rapport aux 33,76 milliards de dollars du premier trimestre 2020.

Les revenus publicitaires de Google Search et d’autres services, à l’exception de YouTube, ont atteint 31,88 milliards de dollars. Du côté des publicités YouTube, les revenus sont passés de 4,04 milliards de dollars à 6 milliards de dollars. Enfin, les revenus liés à la catégorie ” Other bets ” d’Alphabet passent à 1968 millions tandis que la perte d’exploitation atteint 1,15 milliard de dollars.

Selon le CEO d’Alphabet et Google, Sundar Pichai, ” au cours de l’année passée, de nombreuses personnes se sont tournées vers Google Search et divers services en ligne pour rester informées, connectées et diverties. Nous avons continué à délivrer des services de confiance pour aider les gens autour du monde. Nos services Cloud aident les entreprises, petites et grandes, à accélérer leur transformation numérique “.

Microsoft surpasse les attentes sur les revenus Cloud et les ventes de PC

Le géant de Redmond, Microsoft, a également surpassé les prévisions des analystes pour le trimestre. Ces derniers attendaient un chiffre d’affaires de 41,05 milliards de dollars, il atteint finalement 41,7 milliards de dollars. Les revenus par action sont de 2,03 dollars contre 1,78 dollar attendu. Les revenus ” Intelligent Cloud ” atteignent 15,12 milliards de dollars au lieu des 14,9 milliards prévus, et les revenus liés aux PC sont de 13,04 milliards au lieu de 12,6 milliards.

La division Cloud Azure est le principal facteur de croissance de la firme américaine. Le chiffre d’affaires de 15,12 milliards de dollars représente une hausse de 23% en un an. Comme le souligne le CEO de Microsoft, Satya Nadella, ” après un an de pandémie, l’adoption numérique ne ralentit pas. Elle accélère, et ce n’est que le début. Nous construisons le Cloud pour la prochaine décennie, afin de nous étendre dans tous les domaines de la technologie et aider nos clients à se transformer “.

Selon les analystes, Microsoft profite particulièrement de son emprise sur le monde de l’entreprise. Grâce à sa suite d’outils comme Office 365 ou Teams, le Cloud de la firme séduit les plus grandes organisations.

La division PC se porte elle aussi très bien. Le segment ” More Personal Computing ” rencontre une croissance de 19% sur un an. Les revenus des ventes de PC Windows sont en hausse de 10%, au même titre que les produits commerciaux et services Cloud Windows. Les revenus liés au gaming et à la Xbox bondissent de 35%.

De manière générale, les principaux acteurs de l’industrie du Cloud se portent très bien. L’adoption de l’informatique en nuage n’a fait qu’accélérer dans un contexte de pandémie, et cela se répercute directement sur les revenus de Microsoft, Google Cloud et AMD.

Cet article AMD, Google et Microsoft explosent leurs objectifs grâce au Cloud et aux Data Centers a été publié sur LeBigData.fr.

]]>
24890
OVHcloud Scale et High-Grade : de nouveaux serveurs dédiés pensés pour la performance https://www.lebigdata.fr/ovhcloud-scale-high-grade Thu, 29 Apr 2021 08:37:50 +0000 https://www.lebigdata.fr/?p=24482 OVHcloud lance deux nouvelles gammes de serveurs dédiés Bare Metal : Scale et High-Grade. Ces machines sont pensées pour offrir …

Cet article OVHcloud Scale et High-Grade : de nouveaux serveurs dédiés pensés pour la performance a été publié sur LeBigData.fr.

]]>
OVHcloud lance deux nouvelles gammes de serveurs dédiés Bare Metal : Scale et High-Grade. Ces machines sont pensées pour offrir les performances, la résilience et la disponibilité requises pour les cas d’usage les plus exigeants.

À l’ère du Cloud, beaucoup d’entreprises se contentent de serveurs partagés et de Data Centers en colocation. Toutefois, cette approche n’est pas adaptée pour les grandes entreprises exécutant des workloads critiques.

Ces organisations ont besoin de plateformes directement prêtes à l’emploi, pensées et optimisées pour fonctionner avec les principaux logiciels. Elles sont à la recherche d’un rapport performances/prix idéal, et doivent impérativement pouvoir anticiper tous les risques techniques.

Le réseau doit fournir un très haut débit, être extrêmement résilient, et disponible dans un grand nombre de régions géographiques. Ces exigences concernent tout particulièrement les secteurs de la banque, de la santé, de l’industrie, mais aussi les universités et les centres de recherche.

Afin de répondre à ces besoins, le Français OVHCloud lance deux nouvelles gammes de serveurs dédiés Bare Metal : Scale et High-Grade. Ces nouvelles machines délivrent hautes performances, bande passante de très haute capacité, résilience à toute épreuve et disponibilité maximale.

OVHcloud Scale : performances, résilience et rapidité

La gamme Scale rassemble six serveurs équipés de CPU AMD EPYC et Intel Xeon Gold. Les mots d’ordre sont la performance, la résilience et la rapidité.

Le débit peut atteindre un maximum de 25Gbit/secondes, pour répondre aux exigences les plus élevées. L’engagement de niveau de service atteint quant à lui 99,99%.

L’objectif ? Permettre aux grandes entreprises de poursuivre le développement de leurs activités grâce au gain de performances.

 

OVHcloud High-Grade : des serveurs dédiés pour le stockage Big Data et l’IA

La gamme High-Grade regroupe 10 serveurs, également équipés de CPU AMD EPYC et Intel Xeon Gold. Elle combine un très haut débit pouvant atteindre un maximum de 50Gbit/s, avec une puissance de calcul et une capacité de stockage colossales.

Ces machines s’adressent aux entreprises en quête de performances et de disponibilité. Elles conviennent aux cas d’usage d’infrastructures hyperconvergées et de stockage Big Data.

Cette gamme inclut aussi le serveur dédié HGR-AI-1, conçu pour l’intelligence artificielle. La machine est équipée de quatre cartes GPU Nvidia V100s de 32Go de mémoire dédiée. Elle permet d’accélérer les workflows d’analyse de données et d’IA grâce à ses performances impressionnantes.

Pour chaque carte GPU, les performances atteignent 8,2 Tflops en double précision, 16,4 Tflops en simple précision, et 130 Tflops en Deep Learning. La bande passante de mémoire est de 1134 Gbit/s.

Le serveur HGR-AI-1 peut être utilisé pour l’entraînement d’intelligence artificielle, le calcul d’inférence, le calcul haute performance (HPC) ou encore le rendu d’image 3D. Différentes options de mémoire et de stockage sont proposées en fonction des besoins.

La fiabilité et l’efficacité sont assurées par un engagement de niveau de service à 99,99%, un réseau haut débit de 50Gbit/s, et une double alimentation électrique.

Pourquoi choisir les serveurs Scale et High-Grade ?

Les nouveaux serveurs dédiés Scale et High-Grade d’OVHcloud embarquent les composants informatiques dernier cri, et offrent le meilleur rapport prix/performance du marché. On retrouve la technologie OVHcloud Link Aggregation (OLA) permettant de renforcer la disponibilité en agrégeant les interfaces réseau de chaque serveur, et de l’isoler des dangers du réseau public.

Pour ces deux gammes, les accords de niveau de service sont de 99,99% et une protection anti-DDoS est incluse. Le trafic est inclus et illimité. En outre, elles ont obtenu la certification Hébergement de Données de Santé (HDS) et sont conformes à la norme ISO/IEC 27 001.

Ces serveurs sont adaptés à différents cas d’usage, nécessitant d’importantes ressources et l’exécution de tâches complexes. Ils conviennent notamment à la gestion d’infrastructures hyperconvergées HCI, pour les entreprises cherchant à consolider leurs centres informatiques.

Ils sont aussi idéaux pour le stockage applicatif ou Software Defined Storage, puisqu’ils permettent de répondre sans délai aux besoins liés à l’accroissement des volumes de données. On peut aussi utiliser ces machines pour la virtualisation, la conteneurisation et l’orchestration.

En outre, les serveurs Scale et High-Grade conviennent aux analyses Big Data. Ils répondent aussi aux exigences inhérentes aux tâches d’archivage et de sauvegarde telles que la gestion agile des flux d’informations, la prévention de pannes, et la conformité aux lois comme le RGPD.

Ces deux nouvelles gammes de serveurs dédiés OVHcloud combinent performances, haut débit, résilience et disponibilité pour répondre aux cas d’usage les plus exigeants. Les serveurs Scale et High-Grade sont disponibles dans les datacenters OVHcloud d’Europe, des États-Unis et du Canada.

Cet article OVHcloud Scale et High-Grade : de nouveaux serveurs dédiés pensés pour la performance a été publié sur LeBigData.fr.

]]>
24482
Nvidia : comment le fabricant de GPU est devenu un géant du Big Data https://www.lebigdata.fr/nvidia-big-data Mon, 19 Apr 2021 14:35:49 +0000 https://www.lebigdata.fr/?p=17537 Autrefois spécialisé dans les cartes graphiques dédiées au gaming, NVIDIA est devenu, en quelques années, un géant du Big Data …

Cet article Nvidia : comment le fabricant de GPU est devenu un géant du Big Data a été publié sur LeBigData.fr.

]]>
Autrefois spécialisé dans les cartes graphiques dédiées au gaming, NVIDIA est devenu, en quelques années, un géant du Big Data et un acteur majeur de l’industrie des Data Centers. Découvrez les coulisses de cette transformation, et les différentes solutions proposées aujourd’hui par la firme américaine…

Lorsqu’une entreprise s’attaque à un nouveau marché, la transition peut se solder par un échec cuisant. Toutefois, elle peut aussi être couronnée de succès.

En décidant de s’attaquer au marché des Data Centers, du Big Data et de l’IA, NVIDIA a réalisé un véritable coup de maître lui permettant de se préparer au monde de demain. À travers de dossier, découvrez comment le fabricant de cartes graphiques est devenu un géant de l’industrie du Big Data…

NVIDIA et le HPC

Tout commence en 2006. C’est à cette époque que l’Université de Stanford découvre que l’utilisation des GPUs (Graphics Processing Units) pour les tâches les plus intensives offre de meilleures performances par watt que les processeurs CPU traditionnels.

En effet, les éléments utilisés pour traiter les pixels peuvent être utilisés pour les calculs scientifiques : c’est ce que l’on appelle alors le ” GPU Compute “. Plusieurs responsables de NVIDIA, dont Bill Dally et John Nicholls, décident de saisir cette opportunité pour se lancer sur le marché du ” High-Performance Compute ” (HPC).

Pour y parvenir, NVIDIA ajoute de nouvelles fonctionnalités dédiées aux workloads HPC dans ses GPU. Elle développe aussi la gamme de produits Tesla (plus tard renommée Ampere), en se basant sur sa gamme de workstations professionnelles Quadro.

Cette percée sur le marché du HPC sera un véritable succès, et équipe aujourd’hui 127 superordinateurs du TOP500 dont les deux superordinateurs les plus rapides du monde appartenant au US Department of Energy : Summit, situé au Oak Ridge National Laboratory, et Sierra, au Lawrence Livermore National Lab.

Par la suite, des chercheurs en intelligence artificielle décidèrent d’utiliser les GPU pour accélérer les algorithmes de Machine Learning de type ” Deep Convolutional Neural Networks ” (réseaux de neurones convolutifs).

En combinant les DCNN et les GPU, l’entraînement de l’intelligence artificielle a fortement gagné en vitesse et en précision. C’est ce qui a mené à l’explosion de la recherche et des applications IA, et propulsé NVIDIA en chef de file.

La firme américaine a rapidement adapté ses GPU à ces nouveaux workloads, en ajoutant des fonctions mathématiques et des éléments de traitement dédiés appelés ” Tensor Cores “. Elle a aussi développé des bibliothèques logicielles sous le nom cuDNN optimisées pour son framework de programmation CUDA et pour les réseaux de neurones.

Nvidia et les Data Centers

En mars 2019, NVIDIA annonce l’acquisition de Melannox, l’entreprise de networking de Data Center, pour la somme de 6,9 milliards de dollars. Une annonce surprenante pour de nombreux experts, mais aussi et surtout une excellente décision stratégique.

Cet achat est le plus important réalisé par NVIDIA depuis sa fondation, aussi bien en termes de prix que de conséquences. En acquérant Mellanox, NVIDIA est officiellement devenue une entreprise de Data Center.

L’entreprise est convaincue que les Data Centers seront de plus en plus indispensables pour traiter les exabytes de données générées par les nouvelles technologies telles que les véhicules autonomes.

Pour répondre à ces besoins en science des données, NVIDIA a développé plusieurs projets de serveurs basés sur le networking en rack de Mellanox. En effet, la technologie de Mellanox permet de rendre un Data Center suffisamment flexible pour faire face à l’évolution des workloads, à l’hyperscaling et à la conteneurisation.

L’une des pièces maîtresses de cette technologie est l’utilisation des accélérateurs plutôt que des CPU pour les tâches de networking. A l’avenir, la firme comte aussi ajouter de l’intelligence artificielle à ses produits de switching pour transférer les données plus efficacement.

Au deuxième trimestre 2020, pour la première fois, les revenus liés aux activités Data Center de Nvidia ont surpassé ceux générés par ses produits ” gaming “. Il s’agit donc d’un véritable tournant pour l’entreprise.

Les GPU Ampere

Au fil du temps, NVIDIA a développé de nombreux produits dédiés au Big Data et aux Data Centers. Tout d’abord, la firme propose des GPU spécialement dédiés aux Data Centers. Cette gamme portait jadis le nom de ” Tesla “, mais a récemment été rebaptisée ” Ampere ” pour éviter la confusion avec la marque automobile éponyme d’Elon Musk.

Le petit dernier de ce catalogue n’est autre que le A100 Tensor Core. Ce GPU délivre des capacités d’accélération inégalables pour les workflows d’analyse de données, de HPC et d’IA. Il permet d’interconnecter des milliers de GPU ou au contraire de partitionner un GPU en sept instances avec la technologie MIG.

Les systèmes DGX

Lors du keynote GTC 2019, le CEO et fondateur de NVIDIA, Jensen Huang, estime que la Data Science est devenue le 4ème pilier de la méthode scientifique. Or, face à la pénurie de Data Scientists et de chercheurs en IA à l’échelle mondiale, il considère essentiel de maximiser la productivité de ces experts.

Pour permettre à davantage de développeurs de profiter de ses ressources de Data Science, NVIDIA conçoit les workstations et serveurs DGX embarquant tous les outils et bibliothèques CUDA-X pour la recherche en Machine Learning. Avec l’aide de plusieurs fabricants comme Dell, HP et Lenovo, elle commercialise de nouvelles plateformes de Data Science.

Avec ses systèmes DGX, NVIDIA propose aux entreprises des solutions pour la configuration et la mise à niveau des infrastructures d’intelligence artificielle et de Deep Learning.

Cette gamme de systèmes est entièrement conçue pour les workflows d’intelligence artificielle. Elle regroupe les stations de travail et serveurs NVIDIA DGX, mais aussi la solution d’infrastructure évolutive DGX POD.

La plateforme de calcul accéléré NVIDIA HGX A100

Avec sa plateforme HGX A100, NVIDIA propose la plateforme de serveur la plus performante du monde pour l’accélération des calculs multi-précision sur les workflows Deep Learning, Machine Learning et HPC.

Cette plateforme combine jusqu’à huit GPU A100 Tensor Core à la technologie NVSwitch dans un accélérateur unifié. De quoi résoudre les calculs les plus complexes et avancés.

NVIDIA EGX pour le calcul en Edge Computing

Alors que les entreprises opèrent de plus en plus à la périphérie des réseaux, NVIDIA répond à une nouvelle demande avec sa plateforme NVIDIA EGX. Celle-ci permet de profiter de la puissance de calcul accéléré par l’IA directement en périphérie (edge) via le Cloud.

Cette plateforme de calcul accélérée par GPU dédiée au déploiement et à la gestion des applications IA est entièrement évolutive. Elle offre par ailleurs une faible latence et une utilisation simplifiée à l’extrême.

Le hub logiciel NGC

Le hub NGC regroupe de nombreux logiciels accélérés par GPU pour le Deep Learning, le Machine Learning et le calcul haute performance. Les workflows professionnels s’en trouvent simplifiés, et les Data Scientists peuvent ainsi se focaliser sur la création de solutions innovantes.

On retrouve des graphiques Helm permettant d’automatiser les déploiements, des conteneurs sur mesure pour déployer plus rapidement les frameworks IA, des modèles pré-entraînés et des scripts d’apprentissage.

NVIDIA accélère Apache Spark 3.0

En mai 2020, NVIDIA a fait le choix de collaborer avec la communauté open-source en apportant son accélération GPU à Apache Spark 3.0 : la nouvelle version du moteur d’analyse Big Data utilisé par plus de 500 000 Data Scientists dans le monde.

Cette accélération GPU concerne l’ensemble du pipeline de Spark 3.0, du processus ETL jusqu’à l’entraînement de l’IA, qui peut désormais être traité sur le même cluster Spark plutôt que sur une infrastructure séparée. En utilisant la version preview de Spark 3.0 sur Databricks, Adobe a multiplié ses performances par 7 et réduit ses coûts de 90%.

NVIDIA bat le record de performances d’analyse Big Data

nvidia benchmark

En juin 2020, NVIDIA a battu le record de vitesse d’analyse Big Data sur le benchmark standard TPCx-BB. Plus précisément, la firme a réalisé des performances 20 fois plus élevées que les précédents records.

Cette prouesse a été réalisée grâce à la suite de bibliothèques logicielles de Data Science open-source RAPIDS, propulsées par 16 systèmes DGX A100. Au total, les systèmes cumulaient 128 GPU A100 et utilisaient la technologie de networking de Mellanox. Le benchmark a été exécuté en seulement 14,5 minutes grâce à cette configuration, tandis que le précédent record était de 4,7 heures sur un système CPU.

NVIDIA, le Deep Learning et l’intelligence artificielle

L’intelligence artificielle et le Deep Learning permettent aux ordinateurs d’apprendre de manière autonome. Ces technologies nécessitent une puissance de calcul colossale pour l’entraînement des modèles et l’inférence.

Plutôt que les CPU, on utilise les GPU équipés de coeurs Tensor pour leur capacité de parallélisme. Chaque coeur peut effectuer une tâche différente en simultané.

Naturellement, NVIDIA est donc devenu un acteur majeur du Deep Learning au même titre que AMD. Leurs GPU sont utilisés par tous les ingénieurs en intelligence artificielle.

NVIDIA propose l’accélération GPU pour le Deep Learning aussi bien sur PC que via le Cloud. Les systèmes DGX pour Data Centers sont les premiers superordinateurs conçus pour l’IA.

Sur le Cloud, l’accélération GPU est proposée sous forme de services par les principaux fournisseurs comme Amazon, Google, IBM et Microsoft. En outre, le hub NGC permet l’accès aux principaux frameworks Deep Learning pour l’entraînement de modèles : TensorFlow, PyTorch, MXNET…

Pour le Deep Learning sur PC, NVIDIA commercialise son GPU TITAN-V qui est actuellement la carte graphique pour PC la plus puissante à ce jour. Elle repose sur l’architecture Volta de dernière génération.

Un autre produit Nvida dédié au Deep Learning est le DRIVE PX2 : un ordinateur de bord pour les voitures autonomes. Ce système permet d’accélérer la production de véhicules sans pilote.

Le NVIDIA Jetson est une carte permettant d’intégrer l’IA et le Deep Learning aux appareils intelligents. Elle offre des capacités de vision par ordinateur (Computer Vision), de hautes performances avec l’architecture Maxwell (1 Teraflops) et une faible consommation d’énergie de moins de 10 watts.

Côté software, NVIDIA propose le stack logiciel CUDA-X AI entièrement dédié au Deep Learning et destiné aussi bien aux chercheurs qu’aux développeurs. Cet outil permet de développer des applications haute performance accélérées par GPU pour les assistants vocaux, les systèmes de recommandation ou la vision par ordinateur. Les différentes bibliothèques délivrent des performances inégalées pour l’entraînement et l’inférence.

Nvidia GTC 2021 : tour d’horizon des annonces Data Centers

L’édition 2021 de la GPU Technology Conference annuelle de Nvidia était particulièrement riche, avec plusieurs dizaines d’annonces. Plusieurs nouveautés majeures ont notamment été annoncées pour les Data Centers.

Lors de la précédente édition, Nvidia avait dévoilé son nouveau GPU phare : le Ampere A100. Cette puce surpuissante est idéale pour les superordinateurs, le HPC ou l’IA à grande échelle… mais peut être à la fois trop performante et trop chère pour des projets de moindre envergure.

Afin de rectifier le tir, l’entreprise vient de dévoiler deux nouvelles puces plus modestes basées sur le A100. Le Ampere A30 est destiné aux serveurs IA et analytiques, et le A10 est conçu pour le mixed compute et les workloads graphiques.

Une autre nouveauté annoncée par Nvidia est la possibilité de ” louer ” le superordinateur Nvidia DGX Station A100 pour une courte période de temps. Il s’agit du programme ” Nvidia Financial Solutions “, destiné aux individus et entreprises dont les besoins ponctuels ne justifient pas l’achat d’une machine à plusieurs millions de dollars.

En guise d’alternative, via le Cloud, il sera possible d’accéder à un DGX SuperPod constitué de plusieurs ordinateurs DGX Station. C’est donc un superordinateur ” cloud-native “, proposé sous la forme d’un serveur dédié bare-metal.

Loin de se reposer sur ses lauriers, Nvidia a aussi dévoilé son ambitieuse feuille de route pour les prochaines puces. D’ici 2025, la firme compte lancer six générations de hardware dans les gammes Ampere, Grace et Bluefield. La prochaine génération de GPU, prévue pour 2022, porte le nom de code Hopper.

Le CPU Grace est quant à lui prévu pour 2023, tandis que son successeur Grace Next sera lancé en 2025. Concernant les puces de Data Processing de gamme Bluefield, les prochaines itérations (3 et 4) sont attendues pour 2022 et 2024 avec des performances multipliées par 10 et 100 par rapport à l ‘actuelle mouture.

Cet article Nvidia : comment le fabricant de GPU est devenu un géant du Big Data a été publié sur LeBigData.fr.

]]>
17537
Nvidia Grace : une nouvelle puce IA surpuissante pour les Data Centers. https://www.lebigdata.fr/nvidia-grace-puce-ia-data-centers Wed, 14 Apr 2021 07:30:41 +0000 https://www.lebigdata.fr/?p=24253 Le géant des GPU Nvidia vient d’annoncer récemment l’arrivée de sa nouvelle puce Grace destinée aux data centers. Ce qui …

Cet article Nvidia Grace : une nouvelle puce IA surpuissante pour les Data Centers. a été publié sur LeBigData.fr.

]]>
Le géant des GPU Nvidia vient d’annoncer récemment l’arrivée de sa nouvelle puce Grace destinée aux data centers. Ce qui actionne enfin la concurrence avec Intel et AMD sur le secteur. Cette révélation a été faite par le PDG Jensen Huang en personne lors de la conférence virtuelle GTC 2021.

Nvidia utilise une architecture ARM sur son nouveau CPU qui sera lancé début 2023. La puce IA sera baptisée “Grace“, en l’honneur de Grace Hopper la pionnière de la programmation informatique de Nvidia.

Focus sur la puce IA nouvelle génération : Grace

Comme il est mentionné ci-dessus, la puce CPU Nvidia Grace est conçue pour les bases de données. Celle-ci est à la fois innovante et performante. De par sa technologie révolutionnaire, Grace est 10 fois plus réactive que l’un des processeurs les plus rapides à savoir EPYC d’AMD. L’entreprise cherche, par ailleurs, à coupler la nouvelle puce avec leur propre GPU. Cela a pour objectif de combiner la puissance du HPC, mais aussi de l’IA. Pour faire circuler les données CPU-GPU plus rapidement, les CPUs Nvidia Grace peuvent atteindre 900 Go/s de bande passante ; tandis que pour un x86 fortement optimisé, le débit de transfert plafonne à 64 Go/s. Cette différence est le fruit du travail de R&D des ingénieurs de Nvidia.

Nvidia se renforce dans le monde des CPUs

Étant une grande marque informatique, Nvidia est l’un des meilleurs producteurs de GPUs à l’échelle mondiale. Trois lignes produits sont proposées : les GPU, les unités de traitement de données (DPU) et enfin, les CPUs. Selon Huang, chaque ligne de produits fera l’objet d’une actualisation tous les 2 ans. A ce titre, pour les CPUs Nvidia, la mise à niveau de x86 et d’ARM sera alternée chaque année. Soulignons que deux clients importants ont déjà signé pour le processeur Grace, pour des superordinateurs alimentés par ce CPU nouvelle génération. Cette puce sera alors tout aussi utile pour les consommateurs et les professionnels.

Lors d’un discours, Paresh Kharya, directeur marketing chez Nvidia, affirme que le processeur Nvidia Grace est doté d’une technologie ultra sophistiquée. Il ajoute qu’elle équipera le nouveau supercalculateur Alps du Centre suisse de calcul scientifique (CSCS). Ce dernier sera capable de faire tourner GPT-3, le plus grand modèle du traitement du langage naturel au monde, 7 fois plus vite que Selene, le supercalculateur de Nvidia.

Aussi, les appareils Nvidia nouvelle génération seront équipés d’une fonction interconnexion NVLink.

Nvidia Grace se veut être numéro un

Au cours d’une comparaison directe, Nvidia a déclaré qu’un système tournant avec 64 GPUs A100 et 64 CPUs Nvidia Grace est 10 fois plus performant qu’un modèle de traitement du langage naturel avec un trillion de réglages. Selon Kharya, le score Benchmark du processeur Grace dépasse de 5 fois un système DGX A100. L’année dernière, l’entreprise a commencé à investir dans les produits pour réseaux.

Après l’annonce, l’action de Nvidia a connu une hausse de 2.89 % pour atteindre 592.62 dollars.

Cet article Nvidia Grace : une nouvelle puce IA surpuissante pour les Data Centers. a été publié sur LeBigData.fr.

]]>
24253
VAST Data lance Gemini, un modèle d’appareil de stockage pour Hyperscale https://www.lebigdata.fr/vast-data-lance-gemini Mon, 12 Apr 2021 19:00:35 +0000 https://www.lebigdata.fr/?p=24235 VAST Data a annoncé le lancement de Gemini, un modèle de stockage de données réinventé pour l’Hyperscale. La plateforme qui …

Cet article VAST Data lance Gemini, un modèle d’appareil de stockage pour Hyperscale a été publié sur LeBigData.fr.

]]>
VAST Data a annoncé le lancement de Gemini, un modèle de stockage de données réinventé pour l’Hyperscale. La plateforme qui désagrège l’activité matérielle et logicielle, permet à VAST de vendre des logiciels gérés sur du matériel. 

La première plateforme de stockage 100% flash

Avec Gemini, VAST permet aux utilisateurs d’acheter comme des opérateurs de Cloud à très grande échelle sans les contraintes associées à la création de Cloud. Gemini offre une infrastructure flash à faible coût, toujours active et évolutive. VAST Data a développé la première plateforme de stockage 100% flash, transformant l’économie du stockage qui se révèle plus abordable pour toutes les classes de données. 

La plateforme de VAST est appliquée à une large gamme d’industries. Elle offre des avancées de la prochaine génération et aide les organisations à stabiliser les dépenses dans un contexte épidémique. Pour son développement, VAST a levé 100 millions de dollars en financement de série C, dirigé par Next47 l’année dernière.

La transition du fournisseur vers une entreprise de logiciels

Cette nouvelle offre présente les avantages d’un modèle d’entreprise défini par logiciel en termes de flexibilité, tout en préservant le modèle d’appliance de cluster simple et multigénérationnel que les utilisateurs attendent de VAST Data. Cette version marque la transition du fournisseur vers une entreprise de logiciels et vise à aligner les objectifs commerciaux de VAST avec les besoins et les objectifs de ses clients.

Après avoir déployé des centaines de pétaoctets de stockage à travers le monde, VAST a beaucoup appris sur les besoins de ses clients. La promesse de désagrégation ne devrait pas concerner uniquement la technologie, mais également la manière dont cette technologie est déployée. Au lieu d’acheter du matériel et des logiciels ensemble et d’être pris dans un cycle de rafraîchissement sans fin comme vu au cours des 30 dernières années, Gemini offre la liberté, la flexibilité et la simplicité, dont les organisations ont besoin pour déployer une infinité cycle de vie du stockage, et ce, avec un coût abordable.

Les offres Gemini en détail 

Un modèle commercial désagrégé 

Gemini offre aux utilisateurs une transparence totale des coûts matériels. Ce produit permet aux utilisateurs de faire des investissements adaptés à leur capacité et sur la durée de leur choix. Il leur donne la liberté d’améliorer les performances de leur système en achetant du matériel pour répondre aux demandes et charges de travail conséquentes.

Un cycle de vie du stockage infini

Avec l’architecture asymétrique du stockage universel, les utilisateurs ont la possibilité d’étendre les abonnements Gemini sur plusieurs générations de matériel qui se composent, au fil du temps, dans un cluster de stockage à l’échelle de l’exaoctet. Cela facilite la migration des données d’un système à un autre.

Une assistance de qualité

Les assistants surveillent en permanence les systèmes des utilisateurs, hiérarchisent les demandes de fonctionnalités et gèrent toute la planification et le déploiement à mesure que les utilisateurs étendent le stockage universel. Les assistants sont des opérateurs Cloud experts qui gèrent tous les aspects de la gestion du système, de la planification, de l’expansion et des opérations quotidiennes.

Cet article VAST Data lance Gemini, un modèle d’appareil de stockage pour Hyperscale a été publié sur LeBigData.fr.

]]>
24235
Data Center : tout ce qu’il y a à savoir sur les métiers de ce secteur https://www.lebigdata.fr/data-center-metiers Mon, 12 Apr 2021 12:51:00 +0000 https://www.lebigdata.fr/?p=24171 Les métiers du Data Center offrent des salaires avantageux et intéressants, ainsi qu’un cadre de travail agréable. En effet, sous …

Cet article Data Center : tout ce qu’il y a à savoir sur les métiers de ce secteur a été publié sur LeBigData.fr.

]]>
Les métiers du Data Center offrent des salaires avantageux et intéressants, ainsi qu’un cadre de travail agréable. En effet, sous l’impulsion de nouvelles technologies telles que l’Internet des objets ou l’intelligence artificielle, le secteur du Data Center connaît une croissance continue. Cela entraîne les entreprises à investir dans de nouvelles infrastructures numériques. Aujourd’hui, l’industrie du Data Center est dans un tel élan que les besoins se font de plus en plus pressants. Confrontée à une demande de plus en plus forte, le secteur peine à équilibrer la balance de l’offre.

L’industrie du Data Center devient un endroit passionnant et enrichissant pour commencer une carrière. Les salaires compétitifs apportent une réelle satisfaction professionnelle, et il est clair que le secteur a encore beaucoup à offrir aux professionnels. Face à une crise de personnel, le moment n’a jamais été aussi propice pour commencer une carrière dans le secteur. Par ailleurs, faire carrière dans ce domaine s’avère être une décision judicieuse qui devrait rapporter d’immenses bénéfices à long terme.

Contexte professionnel des métiers du Data Center

Posséder son propre Data Center relève d’un véritable défi en ce qui concerne le rythme de travail. En effet, ce dernier doit pouvoir adapter les chaînes d’approvisionnement pour pouvoir répondre aux besoins croissants des clients. De plus, il doit mettre en œuvre des stratégies pour combler l’apport énergétique de la demande d’installation. En outre, un Data Center représente un véritable consommateur d’énergie électrique, surtout si ce dernier est à un niveau optimal. Enfin, ce type d’entreprise nécessite un personnel aux performances fiables, ainsi qu’une équipe d’entreprises qui en ont besoin.

Toutefois, le secteur connaît une pénurie de personnel. La crise se poursuit, accumule les défaillances et s’aggrave. Selon l’institut des centres de recherche et des données, près de 61% des administrateurs des Data Center connaissent des difficultés de recrutement. En effet, depuis 2018, les entreprises voient leur croissance limitée et envisagent un manque à gagner pendant les prochaines années à venir.

En revanche, cela devient une occasion unique pour les professionnels. Pour un secteur tel que le Data Center, un réel besoin d’implication et d’une nouvelle génération de talents est nécessaire. Faisant même la une des journaux, le domaine se retrouve en état de désarroi. Néanmoins, ces derniers offrent tout de même aux personnes qui s’intéressent à la technologie et à l’informatique de multiples avantages. Ainsi, le métier du Data Center peut devenir un choix incontournable pour les personnes voulant se relancer dans leur vie professionnelle.

Les compétences nécessaires pour un métier du Data Center

Un étudiant, comme un professionnel, peut accéder aux métiers du Data Center pour un début de carrière. Dans le secteur, plusieurs branches peuvent être empruntées pour se frayer un chemin sur le marché du travail. En passant par une formation en électricité, mécanique ou ingénierie nucléaire, les débouchés ne manquent pas pour les jeunes professionnels désireux d’apporter leur contribution.

Toutefois, une carrière dans le métier de Data Center nécessite quelques compétences précises. En effet, les centres de données exigent un esprit critique, des capacités de leadership ainsi qu’une réelle expertise technique. Les employés sont bien évidemment rémunérés dans ce sens. En général, neuf domaines sont relevés par une enquête, et pour lesquels les professionnels doivent posséder de solides compétences. Il s’agit de la gestion informatique, de projet, de réseau et des applications ; mais aussi d’un sens du leadership, de la collaboration et de la sécurité. Enfin, les compétences techniques relèvent du cloud computing et des télécommunications.

Les travailleurs du métier de Data Center mettent à profit leurs aptitudes pour relever la majorité des défis imposés.  

Fourchette des salaires des métiers du Data Center et certification

Selon les statistiques du Data Center Knowledge, une majorité des salariés ont déclaré des revenus annuels à hauteur de 100 000 euros, avec près de 10% d’entre eux à près de 190 000 euros. Les 20% qui ont répondu à cette enquête disposent, quant à eux, des salaires de cadres de niveau C. C’est-à-dire que leurs revenus s’élèvent encore plus, et correspondent à un cadre réservé de personnes. D’autre part, ces derniers salaires peuvent aussi correspondre à un type particulier de Data Center, tel qu’une architecture de type cloud hybride ou multi cloud.

D’autre part, les jeunes professionnels orientés dans ce domaine doivent posséder une certification pour s’assurer une place dans le métier de Data Center. Cet élément assure non seulement les compétences requises pour le poste, mais représente un moyen pour commencer à comprendre les câblages et la sécurité. Pour ceux qui débutent dans leur carrière professionnelle, une certification DCCA, ou Data Center Certified Associates, permet d’accrocher à un poste dans le métier.

Par ailleurs, d’autres certifications peuvent être délivrées suite à quelques années d’étude. Les métiers du Data Center englobent aussi la mise en réseau, et nécessite une certification en réseau. Ceux qui aspirent à un poste de direction peuvent s’orienter vers une certification de Spécialiste des opérations.

Dénomination des métiers dans les Data Centers

métier Data Center

Bien que le secteur regroupe une multitude de métiers, voici les rôles spécifiques clés les plus demandés par les entreprises en termes de recrutement. Ces métiers dépendent de l’expérience du travailleur, ainsi que de leur formation technique. Responsable des opérations des Data Centers et ingénieurs en réseaux et systèmes informatiques sont des postes vacants et faisant l’objet d’un manque de personnel. On compte aussi la mécanique en centre de données, ainsi que le responsable de l’exploitation. Ces derniers étant indispensables à l’évolution du paysage d’un Data Center, ils permettent de contribuer à unifier la stratégie principalement liée aux conceptions et aux équipements.

D’autre part, les ingénieurs en systèmes informatiques et réseaux travaillent avec des spécialistes en télécommunication informatique, ils aident à concevoir, installer et entretenir les actifs du réseau. Ce rôle est particulièrement important, car il contribue directement à la sécurité globale du réseau.

D’autre part, les ingénieurs en électricité et mécanique supervisent l’infrastructure physique des Data Centers. Ils sont donc responsables des systèmes informatiques et s’occupent de l’extinction des incendies et des générateurs de secours.

Administrateur en Data Center

Ce poste repose sur la responsabilité des systèmes critiques de l’entreprise. C’est pourquoi les qualifications requises se basent sur une connaissance approfondie du déroulement général d’un Data Center. Il comprend la conception de l’infrastructure, le déroulement des opérations, mais aussi la gestion du cycle de vie des actifs physiques et virtuels de l’entreprise.

Architecte en chef

Il y a aussi un domaine d’architecture dans le métier de Data Center. Toutefois, ce métier-cadre de niveau C consiste à examiner de près la manière dont les fonctions informatiques sont centralisées. Il permet aux départements de l’entreprise de travailler correctement et de manière transparente. L’architecte en chef peut se nommer également architecte d’entreprise.

Architecte du cloud

Ce professionnel de l’informatique s’occupe de superviser la stratégie du cloud computing de l’entreprise. Autrement, le poste comprend les plans d’adoption du cloud, la conception des applications et la gestion de la surveillance du cloud. Les travailleurs à ce poste contrôlent aussi l’architecture au niveau du déploiement des applications dans les différents environnements du cloud : public, privé et hybride.

Ingénieur en données

Les tâches spécifiques de ce poste varient selon l’entreprise en Data Center, mais comprennent en général les spécificités suivantes. Création de pipelines de données, rassemblement des informations provenant de différents systèmes sources, intégration des données, etc. Parfois, l’ingénieur en données se doit de consolider et nettoyer les données, en vue de leur utilisation dans des applications analytiques individuelles.

Data Wrangler

Cet employé s’occupe du nettoyage de données, considéré comme trop volumineux. Ainsi, elles peuvent être préparées pour les analystes et les scientifiques de la base de données. Par ailleurs, ce poste a été créé pour permettre aux personnes compétentes et qualifiées d’être employées de façon efficace, plutôt que d’effectuer un travail délégué à d’autres.

Ingénieur développement

Ce poste nécessite un professionnel de l’informatique. Il est amené à travailler avec des développeurs de logiciels, des opérateurs système et d’autres membres du personnel informatique. Responsable de la chaîne de production, il s’occupe aussi de superviser les versions et déploiements de code. Ce rôle requiert une personne non seulement compétente en matérielle et immatérielle, afin de surmonter les barrières traditionnelles entre les équipes de développement. Il s’agit de contrôler la qualité de l’assurance, du test et de l’exploitation informatique, afin de favoriser un environnement de collaboration en globalité.

Ingénieur réseau

Le professionnel en ingénierie réseau s’occupe de planifier et de mettre en œuvre les réseaux informatiques. Ces derniers doivent faire l’objet d’une supervision afin de prendre en charge les services internes des réseaux, à savoir voix, données, vidéo et réseaux sans fil.

Développeur Full Stack

Appelé aussi « programmeur », ce métier de Data Center nécessite une forte connaissance fonctionnelle de toutes les techniques, langages et concepts d’ingénierie des systèmes. En effet, le terme « Full Stack » fait référence aux technologies et aux compétences nécessaires pour mener à bien un projet, où chaque élément peut constituer une pile.

Administrateur de systèmes

Ce travailleur prend en charge tout l’environnement informatique des multi-utilisateurs. Il s’assure que la performance soit en continu et veille à ce que les services informatiques soient optimisés. Toutefois, les responsabilités à ce poste peuvent varier selon l’employeur et l’entreprise qui recrute.

Administrateur de la virtualisation

Cet employé possède des responsabilités qui comprennent la mise en place et la maintenance de l’environnement virtuel. De plus, des tâches plus traditionnelles peuvent lui être appliquées, comme l’administration système. En soi, l’environnement se constitue de systèmes d’exploitation, de ressources réseau, de serveurs, de stockage, d’applications et de bases de données.

Évolution des compétences en matière des Data Centers

2019 marque un tournant dans le secteur des Data Centers en connaissant une croissance au niveau de la disponibilité des emplois. Il se suit l’année d’après par un développement de l’expertise des architectures cloud, du déploiement d’Edge Computing et de l’automatisation.

En effet, les professionnels du métier de Data Center semblent devenir un marché de l’emploi prometteur. Les chiffres annoncent une croissance, sans signe de pénurie de compétences et de spécialisation en matière de centres de données. D’autant plus que la demande de services cloud augmente, la mise en œuvre de la 5G accélère les choses, et les entreprises se lancent davantage dans la transformation numérique. De ce fait, les administrateurs peuvent se permettre d’affiner leurs compétences afin de relever d’autres défis en matière d’infrastructure.

Évolution du métier dans le domaine des Data Centers

Comme une vague de lancement, les emplois technologiques continuent, eux aussi, à croître à un rythme constant. Les emplois nets dans le secteur regroupent aussi bien les professions technologiques que les développeurs de logiciels. Parmi eux, les architectes réseau et les administrateurs de bases de données comptent près de 24 000 emplois au cours des dernières années.

Par ailleurs, les métiers du Data Center représentent ce qu’on appelle « le nouvel emploi » au cours de la dernière décennie. Considérée comme un moteur de croissance, la popularité croissante du cloud computing ouvre des portes et diverses offres de services. Sur les deux dernières années, près de 66% représentent la création d’emplois et de métiers en Data Center : services informatiques et fonctions de soutien.

Nouveau système de rémunération

Dans le secteur du Data Center, le salaire ne reflète aucunement l’expérience. En effet, il s’agit bien d’un domaine où les employés perçoivent un salaire moyen plus élevé que dans le reste de la France. À cet effet, seules les compétences sont mises en avant, malgré les fluctuations dues à la localisation et au domaine d’expertise du secteur industriel.

En outre, le salaire médian des professions technologiques s’avère être deux fois plus élevé que la moyenne nationale. En effet, de nombreux secteurs ne peuvent se permettre des revenus à 6 chiffres qu’au niveau de la direction. Ici, le secteur de la technologie compte principalement des rôles de contributeurs individuels, où l’ensemble des compétences compte spécifiquement.

Toutefois, les principales compétences en matière de centres de données restent flexibles. Traditionnellement, les administrateurs se concentrent sur la spécialisation des segments et doivent prendre en compte l’évolution des actifs. En revanche, à mesure que la puissance de calcul se déplace vers le cloud et que le secteur de l’infrastructure se consolide, ces derniers doivent revenir aux principes fondamentaux du cloud. À savoir la conteneurisation et l’intelligence artificielle, la gestion de la mise en œuvre, la surveillance, le dépannage et la mise à jour.

Alors, même si les compétences évoluent en même temps que la technologie, et que les emplois offrent tous des salaires à plusieurs chiffres, un administrateur se doit de rester concentré sur les compétences du Data Center.

Déploiement de l’informatique de périphérie

Les prévisions annoncent plus de 75 milliards d’appareils connectés à Internet d’ici 2025. Ce qui laisse le temps aux administrateurs de Data Center de repenser aux architectures réseaux. En effet, abriter les données des clients et le stockage du matériel de traitement de toute la base de données risque de prendre de la place. Bien que le déploiement de l’Edge Computing aide les administrateurs à collecter les informations et à analyser l’Internet des Objets, il est nécessaire qu’ils s’occupent aussi de la maintenance matérielle.

À cet effet, des exigences spécialisées en matière de sauvegarde et de stockage de données sont demandées. La plupart des entreprises utilisent un déploiement de cloud hybride pour certaines parties de leurs architectures réseau. Les entreprises utilisent en moyenne deux douzaines de services cloud provenant de fournisseurs tous différents.

Pour se faire, des services tels que AWS, Microsoft Azure et Google Cloud Platform permettent d’héberger et de fournir des applications. Ils s’assurent que la bande passante du réseau optimise la vitesse et le volume de données qui y transitent, et ce, qu’il s’agisse d’un transfert entre cloud ou vers un centre de données sur site.

Cet article Data Center : tout ce qu’il y a à savoir sur les métiers de ce secteur a été publié sur LeBigData.fr.

]]>
24171