data gravity tout savoir

Data Gravity : qu’est-ce que c’est et quelles sont les solutions ?

La Data Gravity ou gravité des données est un phénomène qui survient à mesure que le volume de données stocké par votre entreprise augmente. Découvrez quelles sont les conséquences de ce phénomène, et comment y faire face.

Les applications reposant sur les données telles que l'analyse , l'intelligence artificielle ou l'Internet des Objets sont désormais exploitées par de nombreuses entreprises de tous les secteurs à des fins de croissance. Cependant, en profitant de ces innovations, les entreprises doivent aussi faire face au concept de  » Data Gravity  » ou gravité des données

Qu'est-ce que la Data Gravity ou gravité des données ?

Le concept de Data Gravity fut inventé en 2010 par l'ingénieur logiciel Dave McRory. L'idée est que les données et les applications sont attirées les unes vers les autres, à la manière dont les objets sont attirés entre eux par la loi de la gravité. Il s'agit donc d'une métaphore visant à imager ce phénomène.

À mesure que les ensembles de données prennent du volume, ils deviennent de plus en plus difficiles à déplacer. Tout comme la pesanteur terrestre nous maintient au sol, les datasets sont maintenus au même emplacement. Ceci concerne aussi les autres éléments tels que les applications et la puissance de traitement qui sont attirés vers les données.

Quelles sont les conséquences de la Data Gravity pour les entreprises ?

Par le biais de technologies comme les appareils mobiles ou l'IoT, la transformation numérique génère d'immenses volumes de données au sein des entreprises. Il est impossible de gérer de tels volumes à l'aide d'une approche traditionnelle.

Habituellement, les plateformes et applications d'analyse de données sont incorporées à leurs propres stacks logiciels et matériels. Les données, quant à elles, sont stockées dans des systèmes DAS (direct-attached storage). Il est donc nécessaire de migrer ces données vers les plateformes analytiques comme Splunk, Hadoop ou TensorFlow pour les analyser.

Or, cette pratique devient inenvisageable pour des volumes de données massifs répartis entre différents systèmes de stockage. La migration des données vers les clusters analytiques devient alors complexe, coûteuse et risquée. C'est particulièrement le cas si vous souhaitez lancer un outil d'analyse sur le pour des données stockées sur site, et vice-versa.

Par conséquent, les entreprises doivent prendre des mesures pour faire face à la gravité des données. Il est nécessaire de changer la conception des architectures informatiques

Comment faire face à la gravité des données ?

La première étape est de concevoir une architecture autour d'une plateforme NAS (network-attached storage) scale-out permettant la consolidation des données. Cette plateforme doit prendre en charge une large variété de workloads et d'applications traditionnelles ou nouvelles qui utilisaient auparavant différents types de stockage. Cette plateforme permet de gérer les données depuis un seul emplacement et de porter les applications et la puissance de traitement aux données.

La plateforme doit impérativement intégrer des fonctionnalités de sécurité, de protection des données et de résilience. L'accès aux ensembles de données doit être strictement contrôlé, et les données doivent rester disponibles même en cas de panne. De plus, toutes les applications et les données doivent profiter de cette protection de manière uniforme. Tel est l'avantage de ne conserver qu'une copie des données dans un système consolidé.

Par ailleurs, cette plateforme dédiée aux données doit être hautement extensible. Si vos besoins en termes de stockage augmentent massivement, elle doit être en mesure de s'y adapter. Toutefois, il est important que les coûts n'augmentent pas aussi vite que le volume de données.

C'est pourquoi la plateforme doit aussi permettre l'optimisation du stockage, aussi bien en termes de performances que de capacité. Pour ce faire, il doit être possible de choisir entre différents tiers de stockage. Les tiers les plus rapides et les plus chers seront dédiés aux données les plus fréquemment consultées, tandis que les tiers plus élevés et moins chers serviront aux données froides. Le système doit pouvoir déterminer automatiquement dans quel tiers stocker chaque donnée.

Pour finir, il est essentiel que votre plateforme de données soit compatible avec une large variété de plateformes et d'applications d'analyse et d'IA. Elle doit prendre en charge celles que vous utilisez aujourd'hui, mais aussi celles que vous utiliserez demain. Une architecture correspondant à ces critères vous permettra de faire face au problème de la gravité des données pour vos solutions Big Data et IA à grande échelle…

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *