Data Center – LeBigData.fr https://www.lebigdata.fr Le magazine du Big Data et du Cloud Computing Mon, 21 Sep 2020 09:16:42 +0000 fr-FR hourly 1 Microsoft repêche son Data Center et annonce le futur du stockage de données https://www.lebigdata.fr/microsoft-repeche-son-data-center-et-annonce-le-futur-du-stockage-de-donnees Mon, 21 Sep 2020 09:16:42 +0000 https://www.lebigdata.fr/?p=17796 Deux ans après la submersion de son Data Center dans l’eau de mer des des Orkney Isles, en Écosse, Microsoft …

Cet article Microsoft repêche son Data Center et annonce le futur du stockage de données a été publié sur LeBigData.fr.

]]>
Deux ans après la submersion de son Data Center dans l’eau de mer des des Orkney Isles, en Écosse, Microsoft vient de le  » repêcher « . Cette expérience menée dans le cadre du Projet Natick est un franc-succès, et le géant de Redmond compte poursuivre dans cette voie pour un Cloud plus respectueux de l’environnement…

A l’ère du Cloud et du Big Data, les Data Centers sont devenus indispensables. Cependant, ces centres de données consomment beaucoup d’énergie. Le refroidissement des serveurs, notamment, est nécessaire et peut vite représenter un fléau pour la planète.

Afin de refroidir leurs serveurs de façon écologique, les fournisseurs de Cloud expérimentent différentes méthodes. Celle de Microsoft est sans doute l’une des plus radicales, puisqu’elle consiste à submerger les centres de données dans une mer glaciale.

À l’évidence, cette approche présente des risques évidents. Il n’est pas possible d’assurer la maintenance de ces centres au quotidien, et ils doivent donc être extrêmement fiables.

Néanmoins, leur exploitation coûte moins cher puisqu’il n’y a pas de loyer à payer. Nul besoin non plus de rechercher un local commercial et d’effectuer une longue procédure pour l’acquérir. De plus, l’eau de mer permet de refroidir les serveurs automatiquement de manière gratuite et écologique.

À travers le Projet Natick, lancé il y a deux ans, Microsoft explore la possibilité de déployer des pods de serveurs scellés sous l’eau plutôt que sur la terre ferme. Le premier pod, Leona Philpot, fut submergé en 2016.

Un second pod dénommé  » Northern Isles «  fut déployé sous les eaux des Orkney Isles, dans l’enceinte de l’European Marine Energy Centre, en 2018. Il est construit par le sous-traitant Naval Group, spécialisé dans la défense et l’énergie renouvelable, avec le soutien des ingénieurs de Green Marine.

L’expérience Projet Natick de Microsoft se ponctue par un succès

Deux ans plus tard, Microsoft vient de  » repêcher  » ce deuxième pod de 12 mètres de long abritant 12 racks pour un total de 864 serveurs. Le pod était recouvert d’algues et d’anémones, mais l’expérience est un réel succès…

Les machines ont tenu sur la durée, et même mieux que prévu. À la grande surprise des chercheurs, les serveurs de ce centre de données ont présenté un taux de panne huit fois moins élevé que celui de serveurs similaires dans un Data Center plus traditionnel.

Selon les chercheurs, ceci s’explique par la présence de nitrogène induit dans l’atmosphère du pod afin son immersion. Sans oxygène ni humidité, les techniciens humains ne peuvent intervenir, mais le risque de corruption chimique des composants est extrêmement réduit.

Ce succès démontre que des Data Centers plus écologiques sont possibles. Au-delà du refroidissement, l’alimentation du Northern Isles est elle aussi plus verte puisque le réseau électrique des Orkney Islands est alimenté à 100% par l’énergie solaire ou éolienne.

En conclusion, le Projet Natick est un véritable succès. À l’avenir, Microsoft envisage de déployer davantage de Data Centers sous-marins. Le futur du Cloud Computing pourrait bien résider sous l’océan

Cet article Microsoft repêche son Data Center et annonce le futur du stockage de données a été publié sur LeBigData.fr.

]]>
Le géant du data center Equinix victime d’un ransomware https://www.lebigdata.fr/equinix-data-center-ransomware Fri, 11 Sep 2020 09:20:59 +0000 https://www.lebigdata.fr/?p=17674 Le leader mondial du Data Center, Equinix, annonce avoir été pris pour cible par un ransomware. Fort heureusement, les données …

Cet article Le géant du data center Equinix victime d’un ransomware a été publié sur LeBigData.fr.

]]>
Le leader mondial du Data Center, Equinix, annonce avoir été pris pour cible par un ransomware. Fort heureusement, les données de ses clients n’ont pas été compromises…

Si les données valent de l’or, alors les Data Centers sont désormais perçus comme des fourgons blindés de la Brink’s. Le fournisseur de centre de données, Equinix, leader mondial du marché, annonce avoir être pris pour cible par une cyberattaque de type ransomware.

La firme n’a pas donné de détail sur cette attaque, et se contente de préciser qu’une enquête a été ouverte et que les autorités ont été alertées. Cependant, le site web Bleeping Computer affirme avoir obtenu une copie de la note de rançon reçue par Equinix.

Selon la source, cette note comportait une capture d’écran de dossiers contenant les fichiers chiffrés par le malgiciel. Si l’on se fie aux noms de ces dossiers, ils contiennent des données très sensibles telles que des informations légales et financières.

À travers cette note, les hackers menaceraient Equinix de publier les fichiers sur internet si la rançon n’est pas payée dans un délai de trois jours. Cette attaque aurait eu lieu au cours du weekend de la semaine dernière.

Un lien ajouté à la note menait à un site de paiement de rançon. Le montant demandé était de 455 Bitcoin, soit l’équivalent de 4,5 millions de dollars. Les criminels menaçaient par ailleurs de doubler la somme si la rançon n’était pas payée rapidement. On ignore pour l’instant si Equinix a choisi de payer ou non.

Equinix contraint de payer une rançon de 4,5 millions de dollars

Quoi qu’il en soit, l’entreprise précise que seules les données de ses propres systèmes ont été compromises. Même si la plupart des clients exploitent leurs propres équipements au sein de ses Data Centers, leurs données et leurs opérations n’ont pas été impactées.

Les centres de données sont d’ailleurs restés pleinement opérationnels au même titre que les services gérés proposés par la firme. Autant dire qu’Equinix a frôlé le désastre, car une fuite de données de ses clients les aurait sans doute poussés à changer de fournisseur.

Pour rappel, Equinix est le leader mondial du marché des Data Centers en termes de revenus. Basée à Redwood City, en Californie, la firme exploite plus de 200 centres de données dans 55 pays du monde. Parmi ses clients, on compte notamment Ford, Netflix ou Spotify.

Si même ce colosse peut être paralysé par un ransomware, alors que ses serveurs sont sécurisés par les technologies les plus avancées, c’est bien la preuve que plus personne n’est à l’abri des cybercriminels. D’ailleurs, Equinix n’est pas le premier fournisseur de Data Centers victime d’une cyberattaque.

Les attaques au rançongiciel ciblent généralement des individus, mais les hackers s’en prennent désormais aux grandes entreprises d’informatique et à leurs Data Centers. Un autre fournisseur, CyrusOne, en a également fait les frais. C’est aussi le cas du producteur d’aluminium Norsk Hydro, de l’Université de Californie à San Francisco, et du système judiciaire du Texas.

Il existe plusieurs mesures préventives permettant de protéger vos systèmes contre les ransomwares, en adoptant les meilleures pratiques de cybersécurité. Veillez notamment à effectuer des backups de vos données les plus sensibles, et à les chiffrer pour qu’elles soient inexploitables par les hackers. Même si vous êtes victime d’un rançongiciel, certains recours peuvent vous permettre de récupérer vos données sans payer la rançon. Consultez notre guide à ce sujet.

Cet article Le géant du data center Equinix victime d’un ransomware a été publié sur LeBigData.fr.

]]>
Nvidia : comment le fabricant de GPU est devenu un géant du Big Data https://www.lebigdata.fr/nvidia-big-data Fri, 04 Sep 2020 12:08:49 +0000 https://www.lebigdata.fr/?p=17537 Autrefois spécialisé dans les cartes graphiques dédiées au gaming, NVIDIA est devenu, en quelques années, un géant du Big Data …

Cet article Nvidia : comment le fabricant de GPU est devenu un géant du Big Data a été publié sur LeBigData.fr.

]]>
Autrefois spécialisé dans les cartes graphiques dédiées au gaming, NVIDIA est devenu, en quelques années, un géant du Big Data et un acteur majeur de l’industrie des Data Centers. Découvrez les coulisses de cette transformation, et les différentes solutions proposées aujourd’hui par la firme américaine…

Lorsqu’une entreprise s’attaque à un nouveau marché, la transition peut se solder par un échec cuisant. Toutefois, elle peut aussi être couronnée de succès.

En décidant de s’attaquer au marché des Data Centers, du Big Data et de l’IA, NVIDIA a réalisé un véritable coup de maître lui permettant de se préparer au monde de demain. À travers de dossier, découvrez comment le fabricant de cartes graphiques est devenu un géant de l’industrie du Big Data…

NVIDIA et le HPC

Tout commence en 2006. C’est à cette époque que l’Université de Stanford découvre que l’utilisation des GPUs (Graphics Processing Units) pour les tâches les plus intensives offre de meilleures performances par watt que les processeurs CPU traditionnels.

En effet, les éléments utilisés pour traiter les pixels peuvent être utilisés pour les calculs scientifiques : c’est ce que l’on appelle alors le  » GPU Compute « . Plusieurs responsables de NVIDIA, dont Bill Dally et John Nicholls, décident de saisir cette opportunité pour se lancer sur le marché du  » High-Performance Compute  » (HPC).

Pour y parvenir, NVIDIA ajoute de nouvelles fonctionnalités dédiées aux workloads HPC dans ses GPU. Elle développe aussi la gamme de produits Tesla (plus tard renommée Ampere), en se basant sur sa gamme de workstations professionnelles Quadro.

Cette percée sur le marché du HPC sera un véritable succès, et équipe aujourd’hui 127 superordinateurs du TOP500 dont les deux superordinateurs les plus rapides du monde appartenant au US Department of Energy : Summit, situé au Oak Ridge National Laboratory, et Sierra, au Lawrence Livermore National Lab.

Par la suite, des chercheurs en intelligence artificielle décidèrent d’utiliser les GPU pour accélérer les algorithmes de Machine Learning de type  » Deep Convolutional Neural Networks  » (réseaux de neurones convolutifs).

En combinant les DCNN et les GPU, l’entraînement de l’intelligence artificielle a fortement gagné en vitesse et en précision. C’est ce qui a mené à l’explosion de la recherche et des applications IA, et propulsé NVIDIA en chef de file.

La firme américaine a rapidement adapté ses GPU à ces nouveaux workloads, en ajoutant des fonctions mathématiques et des éléments de traitement dédiés appelés  » Tensor Cores « . Elle a aussi développé des bibliothèques logicielles sous le nom cuDNN optimisées pour son framework de programmation CUDA et pour les réseaux de neurones.

Nvidia et les Data Centers

En mars 2019, NVIDIA annonce l’acquisition de Melannox, l’entreprise de networking de Data Center, pour la somme de 6,9 milliards de dollars. Une annonce surprenante pour de nombreux experts, mais aussi et surtout une excellente décision stratégique.

Cet achat est le plus important réalisé par NVIDIA depuis sa fondation, aussi bien en termes de prix que de conséquences. En acquérant Mellanox, NVIDIA est officiellement devenue une entreprise de Data Center.

L’entreprise est convaincue que les Data Centers seront de plus en plus indispensables pour traiter les exabytes de données générées par les nouvelles technologies telles que les véhicules autonomes.

Pour répondre à ces besoins en science des données, NVIDIA a développé plusieurs projets de serveurs basés sur le networking en rack de Mellanox. En effet, la technologie de Mellanox permet de rendre un Data Center suffisamment flexible pour faire face à l’évolution des workloads, à l’hyperscaling et à la conteneurisation.

L’une des pièces maîtresses de cette technologie est l’utilisation des accélérateurs plutôt que des CPU pour les tâches de networking. A l’avenir, la firme comte aussi ajouter de l’intelligence artificielle à ses produits de switching pour transférer les données plus efficacement.

Au deuxième trimestre 2020, pour la première fois, les revenus liés aux activités Data Center de Nvidia ont surpassé ceux générés par ses produits  » gaming « . Il s’agit donc d’un véritable tournant pour l’entreprise.

Les GPU Ampere

Au fil du temps, NVIDIA a développé de nombreux produits dédiés au Big Data et aux Data Centers. Tout d’abord, la firme propose des GPU spécialement dédiés aux Data Centers. Cette gamme portait jadis le nom de  » Tesla « , mais a récemment été rebaptisée  » Ampere  » pour éviter la confusion avec la marque automobile éponyme d’Elon Musk.

Le petit dernier de ce catalogue n’est autre que le A100 Tensor Core. Ce GPU délivre des capacités d’accélération inégalables pour les workflows d’analyse de données, de HPC et d’IA. Il permet d’interconnecter des milliers de GPU ou au contraire de partitionner un GPU en sept instances avec la technologie MIG.

Les systèmes DGX

Lors du keynote GTC 2019, le CEO et fondateur de NVIDIA, Jensen Huang, estime que la Data Science est devenue le 4ème pilier de la méthode scientifique. Or, face à la pénurie de Data Scientists et de chercheurs en IA à l’échelle mondiale, il considère essentiel de maximiser la productivité de ces experts.

Pour permettre à davantage de développeurs de profiter de ses ressources de Data Science, NVIDIA conçoit les workstations et serveurs DGX embarquant tous les outils et bibliothèques CUDA-X pour la recherche en Machine Learning. Avec l’aide de plusieurs fabricants comme Dell, HP et Lenovo, elle commercialise de nouvelles plateformes de Data Science.

Avec ses systèmes DGX, NVIDIA propose aux entreprises des solutions pour la configuration et la mise à niveau des infrastructures d’intelligence artificielle et de Deep Learning.

Cette gamme de systèmes est entièrement conçue pour les workflows d’intelligence artificielle. Elle regroupe les stations de travail et serveurs NVIDIA DGX, mais aussi la solution d’infrastructure évolutive DGX POD.

La plateforme de calcul accéléré NVIDIA HGX A100

Avec sa plateforme HGX A100, NVIDIA propose la plateforme de serveur la plus performante du monde pour l’accélération des calculs multi-précision sur les workflows Deep Learning, Machine Learning et HPC.

Cette plateforme combine jusqu’à huit GPU A100 Tensor Core à la technologie NVSwitch dans un accélérateur unifié. De quoi résoudre les calculs les plus complexes et avancés.

NVIDIA EGX pour le calcul en Edge Computing

Alors que les entreprises opèrent de plus en plus à la périphérie des réseaux, NVIDIA répond à une nouvelle demande avec sa plateforme NVIDIA EGX. Celle-ci permet de profiter de la puissance de calcul accéléré par l’IA directement en périphérie (edge) via le Cloud.

Cette plateforme de calcul accélérée par GPU dédiée au déploiement et à la gestion des applications IA est entièrement évolutive. Elle offre par ailleurs une faible latence et une utilisation simplifiée à l’extrême.

Le hub logiciel NGC

Le hub NGC regroupe de nombreux logiciels accélérés par GPU pour le Deep Learning, le Machine Learning et le calcul haute performance. Les workflows professionnels s’en trouvent simplifiés, et les Data Scientists peuvent ainsi se focaliser sur la création de solutions innovantes.

On retrouve des graphiques Helm permettant d’automatiser les déploiements, des conteneurs sur mesure pour déployer plus rapidement les frameworks IA, des modèles pré-entraînés et des scripts d’apprentissage.

NVIDIA accélère Apache Spark 3.0

En mai 2020, NVIDIA a fait le choix de collaborer avec la communauté open-source en apportant son accélération GPU à Apache Spark 3.0 : la nouvelle version du moteur d’analyse Big Data utilisé par plus de 500 000 Data Scientists dans le monde.

Cette accélération GPU concerne l’ensemble du pipeline de Spark 3.0, du processus ETL jusqu’à l’entraînement de l’IA, qui peut désormais être traité sur le même cluster Spark plutôt que sur une infrastructure séparée. En utilisant la version preview de Spark 3.0 sur Databricks, Adobe a multiplié ses performances par 7 et réduit ses coûts de 90%.

NVIDIA bat le record de performances d’analyse Big Data

nvidia benchmark

En juin 2020, NVIDIA a battu le record de vitesse d’analyse Big Data sur le benchmark standard TPCx-BB. Plus précisément, la firme a réalisé des performances 20 fois plus élevées que les précédents records.

Cette prouesse a été réalisée grâce à la suite de bibliothèques logicielles de Data Science open-source RAPIDS, propulsées par 16 systèmes DGX A100. Au total, les systèmes cumulaient 128 GPU A100 et utilisaient la technologie de networking de Mellanox. Le benchmark a été exécuté en seulement 14,5 minutes grâce à cette configuration, tandis que le précédent record était de 4,7 heures sur un système CPU.

Cet article Nvidia : comment le fabricant de GPU est devenu un géant du Big Data a été publié sur LeBigData.fr.

]]>
TikTok construit son premier Data Center européen pour 500 millions $ https://www.lebigdata.fr/tiktok-data-center-europeen Fri, 07 Aug 2020 08:24:01 +0000 https://www.lebigdata.fr/?p=17321 La firme chinoise ByteDance annonce l’ouverture du premier Data Center européen pour l’application TikTok. Une initiative visant à améliorer la …

Cet article TikTok construit son premier Data Center européen pour 500 millions $ a été publié sur LeBigData.fr.

]]>
La firme chinoise ByteDance annonce l’ouverture du premier Data Center européen pour l’application TikTok. Une initiative visant à améliorer la qualité du service pour les utilisateurs basés dans l’UE, mais aussi à rassurer les régulateurs en montrant patte blanche…

L’application mobile TikTok rencontre un immense succès, mais doit aussi faire face à de nombreuses polémiques. Les régulateurs européens et américains lui reprochent notamment de collecter les données personnelles des utilisateurs de manière illégale.

Dernièrement, Donald Trump a menacé de bannir totalement l’application des Etats-Unis dès le mois prochain si son propriétaire chinois ByteDance refuse de la vendre à Microsoft ou autre colosse américain. Afin de se tirer de cette situation délicate, TikTok cherche à présent à rassurer.

L’entreprise ByteDance, devenue la plus rentable du monde, annonce l’ouverture de son premier Data Center européen. Un projet financé par un investissement de 420 millions d’euros.

TikTok veut rassurer concernant la protection des données

Ce centre de données, dédié à TikTok, sera situé en Irlande. Sa création permettra notamment  » d’améliorer la sécurité et la protection des données des utilisateurs  » de l’application.

Ainsi, ByteDance cherche à prouver qu’il peut être un fournisseur de service responsable et digne de confiance. En parallèle, la firme compte également continuer à étendre ses équipes consacrées à la confidentialité et à la protection des données.

En outre, l’ouverture de ce Data Center permettra aussi de créer des centaines d’emplois. La proximité des serveurs aidera par ailleurs à réduire les temps de chargement pour les utilisateurs européens.

Ce premier centre européen devrait être opérationnel début 2022. Les données des utilisateurs européens y seront alors stockées, dans des conditions respectueuses du RGPD. Jusqu’à présent, seuls serveurs TikTok étaient situés aux Etats-Unis et à Singapour.

Cet article TikTok construit son premier Data Center européen pour 500 millions $ a été publié sur LeBigData.fr.

]]>
Microsoft a réussi à alimenter un Data Center à l’hydrogène, une première mondiale https://www.lebigdata.fr/microsoft-data-center-hydrogene Wed, 29 Jul 2020 11:21:44 +0000 https://www.lebigdata.fr/?p=17197 Pendant 48 heures, Microsoft est parvenue à alimenter un Data Center de son Cloud Azure au carburant hydrogène. Les cellules …

Cet article Microsoft a réussi à alimenter un Data Center à l’hydrogène, une première mondiale a été publié sur LeBigData.fr.

]]>
Pendant 48 heures, Microsoft est parvenue à alimenter un Data Center de son Cloud Azure au carburant hydrogène. Les cellules d’hydrogène pourraient devenir une alternative propre aux générateurs alimentés au diesel, et pourraient même permettre à la firme de stocker de l’énergie renouvelable pour l’intégrer au réseau électrique…

Le trafic de données généré par l’humanité augmente à une vitesse fulgurante. Selon le Global Cloud Index de Cisco, en 2016, les Data Centers du monde entier ont traité environ 6 zettabytes de données.

En 2021, ce volume pourrait atteindre 19,5 zettabytes. Ceci représente une croissance phénoménale de 27% par an.

L’essor des services Cloud est en grande partie responsable de cette augmentation, et les nouvelles pratiques de télétravail liées à l’apparition du COVID-19 n’ont fait qu’accentuer cette tendance.

En toute logique, l’empreinte carbone des centres de données ne fait qu’augmenter proportionnellement à la hausse du trafic. Les méthodes de refroidissement des serveurs, notamment, consomment énormément d’électricité.

Il est donc plus que jamais primordial de trouver des méthodes alternatives pour limiter la consommation énergétique des centres de données. De nombreuses entreprises y travaillent, et notamment Microsoft qui compte parmi les principaux fournisseurs de Cloud.

Rappelons que la firme vise une empreinte carbone négative d’ici 2030. D’ici 2050, elle compte également  » supprimer de l’environnement tout le carbone qu’elle a émis directement ou par le biais de sa consommation électrique depuis sa fondation en 1975 « .

Déjà en 2018, le géant américain plongeait un Data Center sous la mer pour le refroidir naturellement grâce à l’eau de mer. À présent, Microsoft teste différents carburants hydrogènes pour alimenter ses centres de données à l’énergie propre.

microsoft hydrogène

Il s’agirait d’une alternative à l’alimentation au diesel. Des générateurs au diesel sont notamment utilisés en cas de panne ou de perturbation des services. En plus d’être onéreux, ces générateurs  » restent inutilisés durant 99% de leur existence « .

Or, le prix des technologies de cellule à carburant hydrogène a fortement diminué au fil des dernières années. Entre 2006 et 2018, ce coût a été réduit à hauteur de 60% selon un rapport du US Office of Energy Efficient and Renewable Energy. Il s’agit donc d’une alternative économique et écologique aux générateurs de backup alimentés au diesel.

Microsoft envisage de stocker de l’hydrogène pour l’intégrer au réseau électrique

Et les premiers tests s’avèrent concluants. La firme de Redmond annonce ainsi avoir réussi à utiliser des cellules de carburant hydrogène pour alimenter les serveurs d’un Data Center pendant 48 heures. Il s’agit d’une première mondiale.

microsoft cellules hydrogène

En outre, le centre de données Azure a été équipé d’un réservoir hydrogène pour le stockage et d’un électrolyseur. Ce dernier permet de convertir les molécules d’eau en hydrogène, et pourrait être intégré au réseau d’énergie électrique.

À terme, les Data Centers Azure pourraient ainsi servir de hubs de stockage d’énergie renouvelable. L’électrolyseur pourrait être activé pendant les périodes de surproduction d’énergie solaire ou éolienne, afin de stocker l’énergie sous forme d’hydrogène.

Lors des périodes de forte demande, les cellules de carburant hydrogène pourraient être activées pour générer de l’électricité pour le réseau. En plus de réduire l’empreinte carbone de ses centres de données, Microsoft pourrait donc devenir un acteur majeur du secteur de l’énergie renouvelable…

Cet article Microsoft a réussi à alimenter un Data Center à l’hydrogène, une première mondiale a été publié sur LeBigData.fr.

]]>
A la conquête de l’Afrique : le Chinois Huawei équipe le Data Center du Cameroun https://www.lebigdata.fr/huawei-data-center-cameroun Tue, 21 Jul 2020 09:09:56 +0000 https://www.lebigdata.fr/?p=17092 Après la Zambie, le Kenya ou encore l’Afrique du Sud, c’est au tour du Cameroun de faire appel à la …

Cet article A la conquête de l’Afrique : le Chinois Huawei équipe le Data Center du Cameroun a été publié sur LeBigData.fr.

]]>
Après la Zambie, le Kenya ou encore l’Afrique du Sud, c’est au tour du Cameroun de faire appel à la Chine et à Huawei pour construire son Data Center. La présence chinoise continue à s’étendre dans le paysage numérique africain… pour le meilleur et pour le pire.

C’est aux portes de Yaounde, la capitale du Cameroun, qui se dresse désormais le centre de données Camtel NBN II. Surnommé Zamengoe, ce Data Center de Tier 3 s’étend sur 3000 mètres carrés. Il est composé de cinq halls et d’une salle des serveurs de 400 mètres carrés.

Pour financer ce projet à 15 millions de dollars, Cameroon Telecommunications (Camtel) a emprunté au gouvernement chinois par le biais de la banque d’Etat Exim Bank. De plus, c’est un consortium chinois qui s’est chargé de la construction du centre : China Shenyang International Cooperation.

L’équipement a été fourni par Huawei, le géant chinois des télécommunications. On retrouve notamment un système de gestion des accès, des caméras de surveillance, un système anti-incendie, un système de gestion d’énergie automatisé de 440 kW, et quatre générateurs d’électricité de 1000 kVA avec une capacité de 40 000 litres.

Au sein de ce Data Center, seront hébergées les données des agences gouvernementales, des institutions éducatives, des télécom, des institutions financières, des commerçants et éventuellement des hyperscalers comme AWS et Microsoft.

Autant dire que le Cameroun s’en remet pleinement à la Chine pour la gestion de sa transformation numérique. Un choix qui peut sembler risqué, à l’heure où Huawei et d’autres entreprises détenues par le gouvernement chinois ont été bannis de plusieurs pays sur fond de soupçons de surveillance de masse.

Rappelons que les Etats-Unis, le Royaume-Uni ou encore l’Australie refusent l’équipement 5G fourni par Huawei. Même les smartphones de la marque sont interdits aux Etats-Unis. En outre, le CFO de Huawei risque l’extradition vers les Etats-Unis par les autorités canadiennes.

Huawei : allié de confiance ou Cheval de Troie pour l’Afrique ?

De leur côté, les pays africains semblent moins regardants et acceptent de prendre le risque de faire confiance à la Chine. Contrairement à une superpuissance comme les Etats-Unis, il est évident que l’Afrique n’est pas en position de force et a beaucoup moins à perdre en acceptant  » l’aide  » de la Chine pour se développer…

Ainsi, depuis plusieurs années maintenant, les entreprises chinoises investissent massivement en Afrique. C’est tout particulièrement le cas de Huawei, désormais omniprésent dans le paysage numérique africain.

La firme controversée a par exemple noué un partenariat avec le fournisseur de télécom sud-africain  » Rain  » pour développer son réseau 5G. Celui-ci est déjà disponible au Cap, à Claremont, à Goodwood, à Bellville et à Durbanville.

Au fil du temps, Huawei déploiera de nouvelles stations, et partagera des infrastructures et des solutions avec Rain pour l’accompagner dans son déploiement rapide et peu coûteux de la 5G. Plusieurs antennes seront bientôt déployées à Johannesburg.

En avril 2019, Huawei s’était aussi chargé d’un projet de Data Center, de smart city et de surveillance au Kenya pour une valeur de 172,7 millions. Là encore, ce projet Konza Technology City est financé par des prêts chinois à faible taux…

Auparavant, en 2017, c’est la Zambie qui s’en est remise à Huawei pour un Data Center à 75 millions de dollars dans le cadre de son projet Smart Zambia. Ce projet a pour but de permettre la création d’une économie numérique d’ici 2030.

Sur le court terme, il ne fait aucun doute que l’Afrique peut profiter de la main tendue par la Chine pour se développer. Cependant, elle accepte aussi de dépendre entièrement de la Chine, de lui être redevable à hauteur de centaines de millions de dollars, et de la laisser accéder à toutes ses données et même de les contrôler

Cet article A la conquête de l’Afrique : le Chinois Huawei équipe le Data Center du Cameroun a été publié sur LeBigData.fr.

]]>
Aqua-Fi : une connexion sans fil au laser pour les Data Centers sous-marins https://www.lebigdata.fr/aqua-fi-data-centers-sous-marins Thu, 16 Jul 2020 10:43:14 +0000 https://www.lebigdata.fr/?p=17047 L’Aqua-Fi est un système de connexion sans fil basé sur le laser créé par des chercheurs de l’université KAUST. Ce …

Cet article Aqua-Fi : une connexion sans fil au laser pour les Data Centers sous-marins a été publié sur LeBigData.fr.

]]>
L’Aqua-Fi est un système de connexion sans fil basé sur le laser créé par des chercheurs de l’université KAUST. Ce système est conçu pour les Data Centers situés sous l’eau…

Les Data Centers sous-marins apparaissent comme l’une des meilleures solutions pour le refroidissement des serveurs. Cependant, créer une connexion sans fil à haute vitesse dans l’eau pour garder ces centres de données connectées à l’infrastructure réseau en surface représente un véritable défi.

Afin de remédier à ce problème, une équipe de chercheurs de la King Abdullah University of Science and Technology (KAUST) a créé une connexion sans fil sous-marine allant dans les deux sens. Cette connexion intitulée  » Aqua-Fi  » est conçue pour être compatible avec le standard sans fil 802.11 déjà existant. Ceci permettra de connecter facilement le système à l’internet mondial.

Pour y parvenir, les chercheurs ont utilisé des composants simples et accessibles. Un Raspberry Pi fait office de modem, et permet de convertir le signal sans fil standard en un signal pouvant être transmis de manière optique par le biais du laser.

Le signal passe dans l’air pour rejoindre une bouée placée à la surface de l’océan. C’est à cet endroit que le Pi effectue la conversion et transmet les informations via des lasers verts et bleus.

Ces lasers sont renvoyés vers un récepteur optique situé sous l’eau. La vitesse de transfert maximale s’élève à 2,11 Mbps sur une distance de 20 mètres.

Aqua-Fi : un Raspberry Pi brûlé par des lasers trop puissants

data center laser

En testant leur système, les chercheurs sont parvenus à effectuer des appels Skype et à transférer des fichiers dans les deux sens. Cependant, en cherchant à tester les limites du système, ils ont brûlé le Raspberry Pi avec des lasers trop puissants.

Pour éviter ce désagrément, il serait nécessaire de remplacer le Pi par un modem optique dédié. Cependant, reste le problème de la variation optique pouvant survenir à cause des courants et autres mouvements de l’eau.

Plusieurs solutions sont envisagées pour contourner cette difficulté. Il serait possible d’utiliser un second laser à faible puissance pour diriger le plus puissant et ajuster l’orientation en cas d’échec de la connexion.

Une alternative serait de remplacer le récepteur par plusieurs récepteurs, en s’inspirant des rangs d’antennes MIMO sur lesquels reposent les équipements de networking modernes. Quoi qu’il en soit, en dépit de ces faiblesses, ce système prometteur pourrait stimuler la multiplication des Data Centers sous-marins. Une bonne nouvelle pour l’environnement !

Cet article Aqua-Fi : une connexion sans fil au laser pour les Data Centers sous-marins a été publié sur LeBigData.fr.

]]>
Nokia crée la surprise en se lançant sur le marché du Data Center https://www.lebigdata.fr/nokia-surprise-marche-data-center Fri, 10 Jul 2020 11:06:24 +0000 https://www.lebigdata.fr/?p=16941 Nokia se lance sur le marché du Data Center avec un catalogue d’équipements conçus en collaboration avec les géants du …

Cet article Nokia crée la surprise en se lançant sur le marché du Data Center a été publié sur LeBigData.fr.

]]>
Nokia se lance sur le marché du Data Center avec un catalogue d’équipements conçus en collaboration avec les géants du Cloud. La firme a déjà attiré plusieurs clients de prestige dont Apple, BT et Equinix…

L’annonce était teasée depuis une semaine, et vient enfin d’être dévoilée. Le géant finlandais des télécommunications, Nokia, se lance sur le marché des équipements de Data Center.

C’est un véritable défi que se lance la firme, puisqu’elle devra faire face à la concurrence de colosses bien installés tels que Cisco, Arista Networks, Huawei, HPE ou Juniper. Cependant, Nokia a plusieurs atouts à faire valoir pour tirer son épingle du jeu.

Selon elle, avec l’émergence de technologies comme la 5G et l’industrie 4.0, les Data Centers devront se fondre avec les réseaux télécoms et le Cloud. C’est la raison pour laquelle elle s’est associée avec des géants du Cloud pour développer ses produits.

Pour conquérir le marché, Nokia dévoile des commutateurs, un système d’exploitation pour réseau Network Operating System, des routeurs Service Router Linux, et la Fabric Service Platform. Son OS réseau a notamment pour but de faciliter la mise à jour et l’intégration en s’inspirant des fournisseurs de Cloud.

Le Nokia Service Router Linux est basé sur la technologie utilisée par plus d’un million de routeurs réseau. Il fonctionne sous Linux, et est agnostique en matière de hardware.

La Nokia Fabric Service Platform (FSF) est un outil d’automatisation et d’exploitation pour les Data Centers multi-vendeur. Elle est intégrée avec les systèmes de centres de données existants et offre un bac à sable pour la simulation, le design et le testing.

Parmi les différents commutateurs présentés, on compte le Nokia 7250 Interconnect Router (IXR), le Nokia 7220 IXR-H series, et le Nokia 7220 IXR-D. Ces systèmes sont compatibles avec les interfaces 400GE, 100GE, 50G, 40GE, 25GE, 10GE et 1GE.

Data Center : Nokia veut répondre aux nouveaux besoins liés à la 5G, à l’IoT et à l’IA

L’entrée de Nokia sur le marché peut sembler soudaine, mais elle est en réalité le fruit de nombreuses années de préparation. La firme finlandaise s’intéressait au secteur tandis qu’elle collaborait avec des scaleurs Web. Elle cherche à présent à intégrer des chaînes d’outil DevOps et des structures de Data Centers de manière ouverte avec des infrastructures de networking, d’applications et de microservices.

L’entreprise a déjà fédéré plusieurs clients de prestige dont Apple, BT et Equinix. Tous vont utiliser ses équipements pour étendre leurs centres de données. Apple utilise le nouveau système de Nokia pour son centre situé à Viborg au Danemark, tandis que BT s’appuie sur l’architecture pour ses services 5G.

Ainsi, Nokia compte devenir une référence pour les nouveaux Data Centers qui seront construits à l’avenir. Elle compte notamment se pencher sur les centres dédiés au Edge Computing : une technologie qui sera de plus en plus exploitée avec l’essor de l’IoT et de la 5G…

Cet article Nokia crée la surprise en se lançant sur le marché du Data Center a été publié sur LeBigData.fr.

]]>
Data Centers Hyperscale : les GAFAM à la conquête de la planète https://www.lebigdata.fr/data-centers-hyperscale-synergy-research Wed, 08 Jul 2020 11:17:07 +0000 https://www.lebigdata.fr/?p=16921 Le nombre de Data Centers hyperscale continue d’exploser à l’échelle mondiale. C’est ce que révèle une étude très intéressante menée …

Cet article Data Centers Hyperscale : les GAFAM à la conquête de la planète a été publié sur LeBigData.fr.

]]>
Le nombre de Data Centers hyperscale continue d’exploser à l’échelle mondiale. C’est ce que révèle une étude très intéressante menée par Synergy Research…

Le nombre de Data Centers hyperscale ne cesse de s’étendre partout dans le monde, et ce malgré la crise du Covid-19. Selon Synergy Research, on dénombre actuellement 541 de ces centres de données à l’échelle mondiale.

Le nombre a donc doublé par rapport à 2015. Par ailleurs, 176 centres supplémentaires sont en cours de construction.

Les États-Unis restent actuellement les leaders du secteur, avec 38% des Data Centers. Viennent ensuite la Chine, le Japon, le Royaume-Uni, l’Allemagne et l’Australie qui cumulent 30% du total. Cependant, les régions EMEA et Asie-Pacifique sont celles qui rencontrent la plus forte croissance.

Au fil des quatre derniers trimestres, de nouveaux Data Centers ont ouvert leurs portes dans 15 pays différents. Les pays où le plus de nouveaux centres ont été construits sont les États-Unis, la Corée du Sud, la Suisse, l’Italie, l’Afrique du Sud et le Bahrain.

Au cours des huit derniers trimestres, 100 nouveaux Data Centers ont ouvert leurs portes. Parmi eux, 26 ont été ouverts au premier semestre 2020.

Le nombre de Data Centers Hyperscale explose malgré la crise du COVID-19

étude data center hyperscale synergy

Malgré les difficultés logistiques causées par la pandémie de COVID-19 et le confinement, les opérations se poursuivent à vive allure. Comme le souligne John Dinsdale, analyste en chef du Synergy Research Group, ceci démontre que la demande en matière de services Cloud continue de s’accroitre et stimule les investissements.

Parmi les opérateurs de Data Centers, Amazon et Google sont ceux qui ont ouvert le plus de nouveaux centres au fil des 12 derniers mois. Les deux géants accaparent plus de la moitié du total. Ils sont suivis par Microsoft et Oracle.

L’étude révèle aussi que 70% des Data Centers hyperscale sont situés dans des complexes loués auprès d’opérateurs de Data Centers comme Digital Realty ou Equinix, ou détenus par les partenaires des opérateurs hyperscale.

Pour finir, et sans surprise, les entreprises exploitant le plus de Data Centers sont les leaders du marché du Cloud : Amazon, Microsoft, Google et IBM. Chacune détient plus de 60 Data Centers dans au moins trois des quatre grandes régions.

Notons qu’Oracle est l’entreprise qui semble le plus s’étendre à l’échelle mondiale. Les géants américains comme Apple, Facebook, Twitter ou eBay focalisent leur présence aux États-Unis. Les colosses chinois, tels qu’Alibaba, Baidu ou Tencent sont quant à eux principalement implémentés en Chine…

Cet article Data Centers Hyperscale : les GAFAM à la conquête de la planète a été publié sur LeBigData.fr.

]]>
Interxion transforme une base du IIIème Reich en Data Center https://www.lebigdata.fr/interxion-mrs3 Thu, 02 Jul 2020 17:12:10 +0000 https://www.lebigdata.fr/?p=16869 Interxion vient de compléter la première phase de construction de son troisième Data Center marseillais MRS3. Ce centre est construit …

Cet article Interxion transforme une base du IIIème Reich en Data Center a été publié sur LeBigData.fr.

]]>
Interxion vient de compléter la première phase de construction de son troisième Data Center marseillais MRS3. Ce centre est construit dans une ancienne base de sous-marins de la Seconde guerre mondiale, reconvertie pour l’occasion.

Avec 14 câbles de télécommunication et près d’une dizaine en prévision pour les cinq prochaines années, Marseille est au coeur de l’industrie mondiale des câbles sous-marin. La cité phocéenne connecte 4,5 milliards d’utilisateurs entre l’Europe, l’Afrique, le Moyen-Orient et l’Asie.

C’est la raison pour laquelle la deuxième ville française intéresse beaucoup Interxion, le géant européen du Data Center. La firme basée à Amsterdam vient de compléter la première phase de son projet MRS3.

Le MRS3 sera le troisième Data Center d’Interxion à Marseille. Il s’agit d’un projet à 157 millions de dollars, pour un centre qui s’étendrait sur plus de 23000 mètres carrés.

Ce Data Center sera situé dans une ancienne base de sous-marins de la seconde guerre mondiale, dénommée Martha et datée de 1943. Cette base allemande n’a jamais été achevée, mais le bâtiment s’étend sur 249 mètres de longueur.

Une épaisseur de plus de 5 mètres de béton le rend capable de supporter des projectiles de 10 tonnes, tandis qu’un mur de 12 mètres de hauteur fait office de barricade. Fort heureusement, il est peu probable que le MRS3 doive faire face à de telles menaces…

Interxion MRS3 : un projet de Data Center à 157 millions de dollars

Ce centre de données sera entièrement alimenté par des sources d’énergie renouvelables. Les deux phases suivantes du projet devraient être complétées en 2021, et le centre délivrera 16 MW d’énergie.

Auparavant, Interxion a déjà construit deux Data Centers à Marseille dont le MRS2, non loin du MRS3, d’une envergure de plus de 14 000 mètres carrés pour 7 MW d’énergie.

La firme a aussi construit huit centres à Paris. Le plus récent, PAR8, a coûté plus de 224 millions. En avril 2020, Interxion a aussi ouvert son campus Interxion Paris Digital Park dans la capitale. Ce campus combine quatre centres répartis sur plus de 130 000 mètres carrés pour un total de 85 MW d’énergie cumulée.

Cet article Interxion transforme une base du IIIème Reich en Data Center a été publié sur LeBigData.fr.

]]>