Pendant plus d’un demi-siècle, les scientifiques du CERN ont tenté de comprendre les mécanismes internes de l’univers. Aujourd’hui, l’institution européenne a décidé d’exploiter le potentiel du Cloud et du Big Data pour réduire les coûts et augmenter la flexibilité de son infrastructure de recherche informatique.
Depuis 2008, les scientifiques du monde entier utilisent l’accélérateur de particules LHC du CERN pour recréer les conditions du Big Bang et comprendre le fonctionnement de l’univers. Quatre ans après l’inauguration du LHC, les chercheurs ont découvert le Boson de Higgs, dernière pièce manquante du modèle standard de la physique des particules.
Cependant, ce modèle standard n’explique que 5% du fonctionnement de l’univers. Dorénavant, le CERN et la communauté mondiale des chercheurs en physique espèrent faire de nouvelles découvertes pour élucider le reste des mystères de l’univers. Afin d’y parvenir, les chercheurs analysent de larges quantités de collisions entre particules subatomiques.
Le LHC génère 30 petabytes de données par an
Ces collisions créent des petabytes de données. Au fil des années, l’analyse de ces données va nécessiter plus de puissance informatique et de capacité de stockage que n’en offrent les Data Centers du CERN. Le budget du CERN, estimé à 1,1 milliard de dollars par an, fourni par 22 pays, n’est pas suffisant pour financer une telle puissance informatique.
Chaque année, les expériences menées au sein du LHC génèrent plus de 30 petabytes de données. Le Data Center du CERN offre 250 petabytes d’espace de stockage et 200 000 cœurs de calcul. L’analyse des données physiques est assurée par le réseau mondial de 170 centres informatiques formant le Worldwide LHC Computing Grid. Chaque jour, 2 millions de tâches sont effectuées sur ce réseau.
En plus des données en provenance du LHC, d’autres données devront être traitées par le CERN dans les années à venir. L’institution développe actuellement un projet baptisé Future Circular Collider, censé succéder au LHC. Quatre fois plus large, ce nouveau centre de collision produira encore plus de données. Pour analyser ces immenses quantités de données, le CERN devra s’en remettre au Cloud et adopter un modèle de stockage hybride.
Oracle Big Data Discovery, une solution analytique adaptée aux besoins du CERN
https://www.youtube.com/watch?v=mYLdF0M-Nk0
Pour capturer les données de son accélérateur, le CERN utilise plus de 50000 capteurs et autres appareils de mesure. Pour analyser plus efficacement ces données, le centre collabore désormais avec Oracle Big Data Discovery. Les données sont analysées pour vérifier que les accélérateurs fonctionnent à pleine puissance. Dans le cas contraire, elles permettant d’identifier les ressources nécessaires pour exploiter pleinement ce potentiel.
Les outils de simulations de la plateforme Oracle Big Data Discovery permettent au CERN openlab d’établir une corrélation entre les problèmes de puissance et la consommation d’électricité, la conversion d’énergie, et la quantité d’eau utilisée. Ces corrélations permettent de guider les systèmes de refroidissement, de réchauffement et d’injection d’énergie.
Le CERN peut à présent déterminer quelle combinaison d’infrastructures et de systèmes techniques sera la plus bénéfique pour ses recherches physiques. Oracle Big Data Discovery permet à l’institution de mettre en place une architecture pour l’analyse de fiabilité et de disponibilité des systèmes au sein du FCC. L’organisation souhaite développer un tableau de bord permettant de superviser le complexe dans son ensemble pour déterminer les améliorations à fournir sans dilapider son budget.
Oracle Database Cloud protège les données du CERN
L’équipe de l’openlab test également Oracle Database Cloud en guise de solution de récupération en cas de désastre. L’utilisation d’une telle solution permettra d’assurer la sécurité des données et la continuité de l’activité efficacement et à moindre coût. L’interface visuelle d’Oracle Big Data Discovery a le potentiel nécessaire pour aider les chercheurs et Data Scientists à extraire et à interpréter les données en provenance de la plateforme Hadoop.
Ils pourront ensuite facilement créer des applications analytiques et partager leurs découvertes. En somme, le Big Data et le Cloud facilitent grandement la tâche des chercheurs et contribue ainsi à faire avancer la recherche plus rapidement.
- Partager l'article :