Le Big Data ne repose pas seulement sur des logiciels, mais aussi sur du matériel. À travers ce dossier, découvrez tout ce que vous devez savoir sur le hardware Big Data et sur les tendances qui dessinent le futur de l’industrie…
La collecte, le stockage, le traitement et l’analyse de données sont les principales étapes du Big Data. Pour effectuer ces tâches, les Data Scientists et autres professionnels utilisent de nombreuses plateformes logicielles.
Toutefois, le Big Data induit aussi des besoins en termes de matériel. Un hardware puissant, optimisé pour le traitement d’immenses volumes d’informations, est indispensable. Découvrez tout ce que vous devez savoir sur le hardware Big Data.
Le Big Data requiert un » Big Hardware «
Les entreprises de toutes les tailles souhaitent exploiter le Big Data. Toutefois, beaucoup de PME ne réalisent pas les besoins en hardware qu’implique l’analyse de données.
Même une petite application génère d’immenses volumes de données qui devront être stockées. Le Cloud n’est généralement pas suffisant, et des investissements dans le hardware sont indispensables. Notamment dans des disques durs et des barrettes de RAM.
Si les entreprises sous-estiment les besoins en infrastructure induits par le Big Data, c’est aussi parce qu’elles ne comprennent pas toujours ce qu’est réellement cette technologie. Plus une organisation collecte de données, plus elle aura de besoins en stockage.
Par le passé, les informations étaient stockées sur des bases de données sur un seul serveur. Ce n’est aujourd’hui plus possible, car un serveur unique ne suffit plus face au volume colossal de données. Les besoins dépendent également de la nature des données collectées.
Outre les serveurs, les ordinateurs de bureaux doivent également être mis à jour. Pour cause, l’exécution des programmes d’analyse de données entraîne une latence sur une machine équipée d’un disque dur de seulement 500GB et de 4GB de RAM.
Les petites entreprises ne doivent donc pas se focaliser uniquement sur la collecte de données et l’analyse, mais aussi prendre en compte les exigences en matière de hardware.
De manière générale, le hardware est bien plus cher que le software à acheter et à maintenir. C’est la raison pour laquelle de nombreuses entreprises se tournent vers le Cloud, éliminant les coûts de maintenance. Toutefois, bien souvent, un Data Center interne est également indispensable.
Les besoins dépendent aussi de la façon dont les données collectées sont utilisées. Dans certains cas, un Data Center unique ne suffit pas et les données doivent être stockées sur des noeuds individuels interconnectés.
Il est donc difficile d’estimer le coût de cet investissement, sachant qu’il dépend des besoins spécifiques de chaque organisation. En général, c’est la capacité de stockage de données qui coûte cher plutôt que la puissance de traitement.
Les données massives sont bien souvent stockées sur de multiples noeuds optimisés, et cette solution est efficace, mais très onéreuse. De nombreuses entreprises se tournent vers les SSD plutôt que les HDD pour accéder plus rapidement aux données. Là encore, le coût est élevé.
Il est donc important pour les entreprises prévoyant de se lancer dans le Big Data de ne pas sous-estimer les exigences en hardware que cela implique. Il est nécessaire d’investir dans l’infrastructure adéquate, avec suffisamment de capacité de stockage sur les serveurs et de puissance de traitement sur les ordinateurs où seront effectuées les analyses.
Ces dépenses doivent être planifiées, afin d’éviter les mauvaises surprises et les dépenses superflues. Définissez vos besoins, estimez les coûts, menez des recherches afin de réaliser votre projet de manière économique…
Le hardware de capture de données
Le Big Data commence par la collecte de données. Par conséquent, on peut considérer tous les appareils permettant de capturer des informations comme faisant partie du » hardware » Big Data.
En guise d’exemples, on peut citer les smartphones, les caméras, les voitures, les montres, les objets connectés, les systèmes de sécurité, les capteurs de mouvements ou encore les terminaux de cartes bancaires.
Tous ces appareils permettent de collecter des informations sur les activités quotidiennes, les habitudes ou les préférences de leurs utilisateurs. En réalité, le nombre d’équipements capturant des données semble aujourd’hui illimité.
Le hardware Big Data doit présenter plusieurs caractéristiques pour permettre la collecte de données en bonne et due forme. Il doit permettre de capture les données avec précision. Par exemple, les thermostats connectés doivent être correctement calibrés et les caméras doivent offrir une haute définition d’image.
Dans le cas contraire, si les données sont de mauvaise qualité, les résultats des analyses seront biaisés. Il existe donc un risque de rater d’importantes opportunités. Si vous comptez profiter des bienfaits du Big Data, assurez-vous de choisir le meilleur équipement de capture de données.
Dans l’idéal, les données doivent être transmises en temps réel vers le Cloud où elles seront analysées. Ceci permet d’éviter que les résultats de l’analyse soient déjà obsolètes lorsqu’ils seront produits. À titre d’exemple, le ciblage publicitaire Data-Driven ne fonctionnera pas si le consommateur n’est plus intéressé par le produit proposé.
Par ailleurs, il est important que le hardware Big Data soit compatible avec tous les systèmes analytiques et toutes les plateformes Cloud. La technologie évolue à vive allure, et les utilisateurs seront irrémédiablement amenés à changer de plateforme ou à en utiliser de nouvelles au fil du temps.
De même, le hardware doit être compatible avec les différents protocoles standards de communication comme IEEE 802.11, Z-Wave, ZigBee, VESA, MP4, USB ou Bluetooth. Des APIs simples d’utilisation et convenablement documentées doivent aussi permettre aux développeurs d’intégrer rapidement une solution Cloud avec le hardware.
Les tendances de l’industrie du hardware Big Data
Ces dernières années, plusieurs tendances viennent bouleverser l’industrie du hardware Big Data. Tout d’abord, les serveurs Cloud sont plus accessibles que jamais. Cette technologie permet d’effectuer les tâches de traitement de données sur des serveurs distants.
Elle offre une élasticité inouïe, une stabilité à toute épreuve, et permet un déploiement instantané et une maîtrise des coûts. Les serveurs physiques sont de plus en plus délaissés pour le nuage.
Par ailleurs, les SSD (solid-state drive) sont de plus en plus populaires. Ces appareils de stockage reposant sur des cellules électriques permettent un accès instantané aux données, contrairement aux disques durs traditionnels utilisant la rotation et le mouvement d’une aiguille. Ces derniers sont également plus susceptibles d’être endommagés par un problème mécanique. Les SSD sont devenus un standard sur les serveurs, car ils répondent aux nouveaux besoins du Big Data.
La tendance est aussi à l’intelligence artificielle, avec l’émergence de processeurs dédiés comme les Intel Xeon permettant d’accélérer l’analyse de données et de délivrer des résultats plus précis. L’IA permet aussi d’automatiser les tâches analytiques.
Dans l’industrie mobile, le hardware embrasse également l’intelligence artificielle. Les puces de smartphones telles que les Snapdragon de Qualcomm exploitent désormais l’IA pour stocker et traiter des données localement.
Au fil des années à venir, ces tendances vont se poursuivre. L’intelligence artificielle et le Cloud sont sans nul doute les deux technologies ayant le plus d’impact sur le hardware Big Data et plus généralement l’informatique, tandis que les SSD remplacent désormais les disques durs.
Pourquoi le Big Data a besoin d’une révolution hardware ?
Dans le domaine de l’informatique, l’innovation semble bien souvent focalisée sur le logiciel. De nouveaux programmes émergent pour suivre et mesurer notre état de santé, des intelligences artificielles surpassent des humains aux jeux de société.
Malheureusement, l’innovation matérielle semble trop souvent négligée. Afin de corriger le tir, en 2018, le consortium Semiconductor Research Corporation (SRC) a annoncé l’ouverture de six centres universitaires.
Ce consortium composé d’entreprises, de chercheurs et d’agences gouvernementales a pour but de tracer le futur de l’industrie des semiconducteurs. Cette initiative s’étend à l’échelle mondiale, et plusieurs entreprises du monde entier ont rejoint le consortium américain.
C’est notamment le cas du géant sud-coréen Samsung. Les principaux fabricants de puces cherchent à reconquérir leur territoire face aux géants du logiciel tels que Google qui s’aventurent sur le terrain du hardware IA et Big Data.
Leur objectif est d’amorcer une transformation majeure de l’industrie, qui marquera peut être la première révolution architecturale depuis les débuts de l’informatique. En effet, l’architecture traditionnelle von Neumann, consistant à séparer les composants de stockage de données de ceux dédiés au traitement de données, ne répond plus aux besoins modernes.
Les transferts d’informations entre les composants requièrent du temps et de la puissance, et freinent les performances. Pour analyser d’immenses ensembles de données à l’aide de l’IA, les chercheurs en astronomie, en physique, en neuroscience, en génétique, ont besoin d’ordinateurs d’un genre nouveau surpassant les limites de cette architecture.
Depuis plusieurs décennies, les avancées dans le domaine du hardware informatique semblent se cantonner à réduire la taille des composants et à doubler le nombre de transistors sur une puce tous les deux ans en suivant les prédictions de Gordon Moore. Le design fondamental, lui, n’évolue pas et place une limite aux possibilités offertes.
La solution pourrait être de » fusionner » les unités de mémoire et de traitement de données. Cependant, effectuer des tâches de calcul sur une seule unité de mémoire représente un véritable défi technique.
Une alternative peut être perçue dans les recherches menées par Google AlphaGo. La firme a produit un nouveau type de composants appelés » TPU » (Tensor Processing Unit). Ces puces se distinguent par leur architecture permettant d’effectuer bien plus d’opérations simultanément.
Cette approche du traitement parallèle permet d’augmenter la vitesse et l’efficacité des calculs les plus intensifs. En outre, la stratégie de » computing approximatif « , consistant à laisser une marge d’erreur plus importante à la machine, pourrait également s’avérer bénéfique.
C’est justement cette méthode qui a permis de réduire de façon drastique la consommation d’énergie de programmes comme AlphaGo. Un tel bouleversement dans le domaine du hardware pourrait démocratiser l’IA.
Une autre piste à suivre est celle du » neuromorphic computing « , avec des puces inspirées par le cerveau humain qui reste à ce jour le processeur le plus efficace énergétiquement. Cette technologie simule la communication et le traitement effectué par notre système nerveux.
https://youtu.be/jCvHHPiW57Q
Afin d’explorer ces différentes possibilités, le SRC cherche à encourager les concepteurs de hardware à aller de l’avant. A travers le Joint University Microelectronics Program, le consortium souhaite stimuler le développement d’une nouvelle architecture.
Par exemple, le centre établi à la Purdue University de West Lafayette, dans l’Indiana, se focalise sur la recherche dans l’informatique neuromorphique. Le centre de l’University of Virginia de Charlottesville cherche quant à lui de nouvelles façons d’exploiter la mémoire des ordinateurs pour une puissance de traitement supplémentaire.
Le but final reste le même : créer une architecture informatique capable de prendre en charge le stockage et le traitement du Big Data. À mesure que le volume de données augmente, la nécessité d’une révolution hardware s’intensifiera…
- Partager l'article :