Cloudera – LeBigData.fr https://www.lebigdata.fr Le magazine du Big Data et du Cloud Computing Tue, 12 Dec 2017 15:07:06 +0000 fr-FR hourly 1 Cloudera Altus : une solution PaaS pour le Big Data sur le cloud https://www.lebigdata.fr/cloudera-altus-paas-cloud-2505 Thu, 25 May 2017 11:36:34 +0000 https://www.lebigdata.fr/?p=4407 Dans le cadre de la Strata Data Conference de Londres, Cloudera vient de dévoiler une nouvelle solution PaaS (plateforme en …

Cet article Cloudera Altus : une solution PaaS pour le Big Data sur le cloud a été publié sur LeBigData.fr.

]]>
Dans le cadre de la Strata Data Conference de Londres, Cloudera vient de dévoiler une nouvelle solution PaaS (plateforme en tant que service baptisée Cloudera Altus. Cette solution permet aux entreprises de faciliter l’exécution de workloads Big Data sur le cloud. Elle repose sur une infrastructure sur demande permettant d’aider les utilisateurs à développer rapidement des pipelines de données scalables et élastiques pour les applications reposant sur le Big Data.

La plupart des applications reposant sur le Big Data utilisent des workloads qui ne sont lancés que pendant une durée temporaire. En utilisant une infrastructure élastique, les entreprises peuvent changer l’échelle pour prendre en charge les pipeline workloads de données en fonction de leur besoin, et ainsi gagner en flexibilité. Avec sa solution PaaS (plateforme en tant que service) Altus, Cloudera cherche à rendre abstraits le management et les opérations associées aux infrastructures Big Data ainsi que l’infrastructure en elle-même.

Cloudera Altus : une solution PaaS permettant de gagner en flexibilité

Selon la firme, Altus aide à fournir des fonctionnalités comme les métadonnées, la sécurité, le management et le stockage commun à travers de multiples applications de data engineering. Les workloads de data engineering sont fondamentaux pour les applications data-driven d’aujourd’hui, comme le souligne Charles Zedlewski, senior vice president aux produits chez Cloudera.

D’après ses dires, Altus simplifie le processus de développement et de lancement de pipelines de données tout en préservant la portabilité et en facilitant l’incorporation d’éléments de data engineering à des applications temps réel de business intelligence et de data science. Par l’intermédiaire d’Altus, les data engineers peuvent accéder à des outils open source populaires comme Apache Spark, Apache Hive, Hive on Spark et MapReduce2 au sein d’un environnement cloud.

Cloudera Altus : déjà disponible sur Amazon Web Service et prochainement sur Microsoft Azure

En outre, Altus fournit également des paramètres de cluster par défaut pour un temps de déploiement plus rapide, une gestion facilitée, et une automatisation simple. La plateforme est disponible dès à présent sur Amazon Web Services, et sera prochainement lancée sur Microsoft Azure. Altus est principalement orienté vers les data pipelines, dans l’espoir d’aider les utilisateurs à moins s’inquiéter au sujet des infrastructures. De plus, comme le reste des solutions Cloudera, les ingénieurs de données peuvent lire et écrite directement au sein du stockage d’objet cloud. Altus fonctionne avec différentes versions de Cloudera Distributed Hadoop (CDH), et le service intègre également une fonctionnalité de gestion de workload permettant de faciliter la résolution de problèmes.

Les données et les outils analytiques, particulièrement sur le cloud, restent à l’heure actuelle l’un des principaux secteurs de croissance et d’investissement pour de nombreuses entreprises. Cependant, les entreprises doivent aussi faire face à des défis liés à la gestion de cluster cloud, de traitement de données et de migration. Ce sont ces défis que Cloudera cherche à aider à relever avec Altus.

Cet article Cloudera Altus : une solution PaaS pour le Big Data sur le cloud a été publié sur LeBigData.fr.

]]>
Veikkaus : le Big Data pour déceler l’addiction au jeu https://www.lebigdata.fr/veikkaus-big-data-addiction-jeu-0501 Thu, 05 Jan 2017 22:20:47 +0000 https://www.lebigdata.fr/?p=3357 Le leader finlandais des jeux d’argent, Veikkaus, utilise le Big Data pour identifier ses clients menacés par l’addiction au jeu. …

Cet article Veikkaus : le Big Data pour déceler l’addiction au jeu a été publié sur LeBigData.fr.

]]>
Le leader finlandais des jeux d’argent, Veikkaus, utilise le Big Data pour identifier ses clients menacés par l’addiction au jeu. Cette initiative permet à la firme de prendre des mesures pour prévenir le problème, ou venir en aide à ces personnes en détresse.

Le Big Data et les technologies analytiques peuvent conférer des informations précieuses dans tous les domaines. Ces technologies peuvent notamment permettre aux entreprises de mieux comprendre les consommateurs, afin d’identifier des problèmes potentiels ou des opportunités.

Ainsi, l’une des principales entreprises européennes de jeux d’argent s’est servie du Big Data pour créer une vue à 360 degrés de ses clients. L’objectif est notamment d’identifier les clients qui montrent des signes d’addiction au jeu. Cette entreprise n’est autre que l’agence de jeu finlandaise Veikkaus.

En Finlande, les jeux sont nationalisés, et les revenus générés sont redistribués à des infrastructures sociales comme les arts, la science, ou les associations sportives. En janvier 2017, Veikkaus fusionnera avec deux autres agences détenues par l’État : Fintoto, spécialisé dans les courses équestres, et Ray, l’expert des jackpots et des casinos. La firme deviendra la plus grande organisation européenne de jeux d’argent.

Identifier l’addiction au jeu grâce au Big Data

addiction-jeu-argent

Afin de dresser un portrait à 360 degrés de ses clients, Veikkaus avait besoin de collecter de larges quantités de données en temps réel en provenance de canaux de pari en ligne et hors ligne. L’entreprise a créé une architecture de données moderne, basée sur des standards ouverts, en utilisant Pentaho pour gérer, préparer et intégrer les données au sein d’un environnement regroupant la distribution Enterprise Apache Hadoop de Cloudera, Flume, Kafka et HP Vertica.

En 2 à 10 minutes, les données sont utilisables et adaptées au format défini par Veikkaus. Grâce à ces données, la firme peut répondre plus facilement à des questions spécifiques. L’un des principaux centres d’intérêts de l’entreprise est d’identifier les individus présentant des signes d’addiction au jeu pour prendre des mesures.

Veikkaus est capable d’identifier une grande partie de ses clients par rapport à leurs identifiants d’utilisateur lorsqu’ils sont connectés sur un canal numérique ou par l’intermédiaire d’une carte de fidélité. Actuellement, la firme peut classifier 1,9 million de Finlandais sur une population totale de 5,5 millions.

Cesser le marketing et prodiguer des conseils

jeu-argent-data

En se basant sur les patterns repérées durant ses recherches parmi les personnes à la recherche d’une aide contre l’addiction, Veikkaus est en mesure de prédire quels joueurs risquent de succomber à ce vice. En se basant sur ces tendances, l’entreprise peut également déterminer quels types de jeux posent principalement problème, et éventuellement décider d’arrêter de les proposer.

Pour le moment, Veikkaus peut seulement cesser toute activité de marketing vis-à-vis des joueurs sujets à l’addiction. Dans un futur proche, la firme envisage également des interventions plus directes. Il serait par exemple possible de contacter directement une personne pour lui proposer de l’aide ou des conseils.

L’entreprise souhaite aussi étendre la vision à 360 degrés de ses clients en utilisant davantage d’ensembles de données. Les emails du service client seront scannés à l’aide d’une technologie d’analyse de sentiment pour déterminer s’ils sont positifs, négatifs ou neutres. Les données météorologiques seront également intégrées, car il a été prouvé que la météo influence fortement le comportement des joueurs. Enfin, les données en provenance des réseaux sociaux seront également analysées.

Veikkaus, instigateur de l’ère du Big Data

veikkaus

La transformation de Veikkaus en une entreprise dirigée par les données s’inscrit dans une tendance observée dans toutes les industries. Il est encourageant de voir une firme d’une telle envergure utiliser la technologie de façon proactive pour résoudre un important problème social.

Veikkaus est un simple exemple de la façon dont les entreprises actuelles utilisent les vues à 360 degrés conférées par les technologies analytiques. Dans les secteurs de la santé, de la fabrication, ou encore du retail, les entreprises investissent pour utiliser les données afin de mieux comprendre leurs clients (ou leurs patients) et leurs produits afin d’améliorer le service, et de se développer plus efficacement.

Cet article Veikkaus : le Big Data pour déceler l’addiction au jeu a été publié sur LeBigData.fr.

]]>
Dataiku : 14 millions de dollars levés pour la plateforme de Data Science https://www.lebigdata.fr/dataiku-levee-de-fonds-2510 Tue, 25 Oct 2016 20:29:56 +0000 https://www.lebigdata.fr/?p=2555 L’entreprise française Dataiku vient de lever 14 millions de dollars dans le cadre d’une levée de fonds de Série A. …

Cet article Dataiku : 14 millions de dollars levés pour la plateforme de Data Science a été publié sur LeBigData.fr.

]]>
L’entreprise française Dataiku vient de lever 14 millions de dollars dans le cadre d’une levée de fonds de Série A. Cette somme va permettre de continuer le développement de la plateforme d’analyse prédictive de la firme pour développer les équipes de Data Science des entreprises de toutes les tailles. 

L’entreprise parisienne Dataiku, fondée en 2013, est à l’origine de la plateforme Dataiku Data Science Studio. Cette plateforme tout-en-un facilite l’analyse de données Big Data, et le développement de services d’analyse prédictive en regroupant tous les outils nécessaires à la création de services pour transformer les données en prédictions. Cette plateforme est utilisée par une centaine de clients issus de nombreuses industries aussi variées que le e-commerce, la finance, la pharmaceutique ou encore l’assurance.

Une levée de fonds pour un déploiement international de Dataiku

firstmark

Cette semaine, la firme annonce une levée de fonds de 14 millions de dollars, principalement menée par FirstMark Capital, Alven Capital et Serena Capital. Grâce à cette somme, Dataiku va pouvoir accélérer le développement commercial de sa plateforme et  permettre aux Data Scientists et aux Data Analysts de développer des solutions évolutives au sein de leurs entreprises en Europe, aux États-Unis et en Asie. 

Cette levée de fonds ne fait que concrétiser le succès phénoménal de Dataiku. En 2016, la firme a rencontré une croissance de 300%, et a doublé ses effectifs en Europe et aux États-Unis. Elle compte également des clients prestigieux comme AXA, L’Oréal, Blablacar, ou encore Accor et Voyage Privé. Elle compte également des partenaires technologiques de prestige comme Microsoft, Cloudera, Tableau, Databricks et HP Vertica. Dataiku avait déjà levé 3,6 millions de dollars en phase d’amorçage.

Des investisseurs enthousiastes

Selon Matt Turck, Managing Director de FirstMark Capital, le marché du Big Data entre aujourd’hui dans une phase de maturité, et une plateforme comme celle de Dataiku est nécessaire pour permettre aux professionnels des données de collaborer. Selon lui, le succès de Dataiku est totalement justifié par la qualité et la richesse de sa plateforme.

serena-capital

D’après Nicolas Louvet de Serena Capital, Dataiku fut identifié dès 2014 et se montrait très convaincante par sa vision claire et son expertise. Après la première levée de fonds de 3,6 millions, la première impression fut confirmée et Dataiku rencontra un succès phénoménal auprès de nombreuses PME et autres Grands Comptes.

Enfin, selon Raffi Kamber de Alven Capital, la plateforme permet à toutes les entreprises de structurer le travail des équipes autour du Big Data. Cette levée de fonds de 14 millions de dollars ne fait que confirmer le succès et la pertinence de Dataiku et de ses fondateurs. La firme a su se placer en précurseur des solutions Big Data, désormais prioritaires pour les grandes entreprises.

Un CEO fier et motivé

florian-douetteau

Florian Douetteau, le CEO de Dataiku, affirme que tous les éléments d’une entreprise doivent être impliqués dans la Data Science. Il est important d’offrir cette opportunité à chacun en le laissant libre d’utiliser ses technologies, langages et interfaces de prédilection. Ainsi, le chef d’entreprise est très heureux et fier d’accueillir FirstMark comme partenaire et honoré du succès rencontrer par sa plateforme auprès des entreprises à l’internationale pour leurs stratégies Big Data.

Cet article Dataiku : 14 millions de dollars levés pour la plateforme de Data Science a été publié sur LeBigData.fr.

]]>
Strata + Hadoop World 2016 : la conférence Big Data la plus importante de l’année https://www.lebigdata.fr/strata-hadoop-world-2016-0309 Mon, 03 Oct 2016 18:08:27 +0000 https://www.lebigdata.fr/?p=2373 La semaine dernière, tous les principaux acteurs de l’industrie du Big Data étaient réunis à New York, dans le cadre …

Cet article Strata + Hadoop World 2016 : la conférence Big Data la plus importante de l’année a été publié sur LeBigData.fr.

]]>
La semaine dernière, tous les principaux acteurs de l’industrie du Big Data étaient réunis à New York, dans le cadre de la conférence Strata + Hadoop World. L’occasion pour les entreprises de présenter leurs nouvelles technologies à un public composé de plus de 7000 personnes. 

De nombreuses personnalités influentes de l’analytique ont tenu leur keynote, afin de présenter leur vision du futur du Big Data, du Machine Learning, de l’internet des objets, des véhicules autonomes ou des Smart Cities. Parmi ces personnes, on compte notamment le Data Scientist en chef de la Maison Blanche, DJ Patil.

L’essor de l’Open Data grâce à Barack Obama

dj-patil

Ce dernier s’est exprimé sur sa mission de « libérer de manière responsable le pouvoir des données pour le bénéfice de tous les Américains ». Le Big Data a par exemple fortement aidé à réduire la consommation excessive d’opiacés. Patil est également revenu sur l’importance de l’ouverture des données

Selon lui, lorsque Barack Obama est arrivé au pouvoir, il y avait environ 10 ensembles de données ouvertes disponibles. Aujourd’hui, on en compte plus de 2000. Grâce à l’actuel Président des États-Unis, toutes les entreprises peuvent ainsi utiliser les données pour développer de nouvelles stratégies et des technologies pour les concrétiser

Intel et l’intelligence des données

intel-strata

De son côté, Martin Hall, Data Scientist en chef des solutions Big Data d’Intel, a abordé l’essor du Big Data. Grâce à l’intérêt massif pour cette technologie, il est désormais possible d’ajouter « l’intelligence » aux données, aux outils d’analyse et à la puissance informatique permettant de délivrer plus d’informations.

Avec l’arrivée de la médecin personnalisée, des voitures autonomes, des objets connectés, nous sommes désormais entrés dans l’ère de l’intelligence artificielle. Les objets connectés offrent toujours plus de possibilités d’automatisation, et s’apprêtent à transformer nos vies, notre façon de travailler, et nos interactions et communications avec le reste du monde.

Cette conférence a permis de confirmer que l’analyse de streaming de données en temps réel fait désormais pleinement partie du paysage de la science des données. Le moteur open source Apache Kafka dirige cette transition, et les acteurs majeurs du marché affichent tout leur soutien à cette technologie.

Cloudera Hadoop passe en version 5.9

cloudera-hadoop

L’un des principaux vendeurs de plateformes open source, Cloudera, a annoncé l’arrivée prochaine de la version 5.9 de sa distribution Hadoop. Celle-ci embarquera Spark 2.0 pour la première fois, aux côtés d’Apache Kudu, conçu spécifiquement pour l’analyse en temps réel.

Sa distribution sera également compatible avec l’infrastructure cloud Microsoft Azure, en plus d’AWS et Google Cloud. Un nouveau modèle pay-as-you-go va également être proposé, parallèlement au modèle d’abonnement annuel actuellement en vigueur.

IBM impressionne avec son robot Marvin

ibm-marvin

Le robot Marvin d’IBM a permis de divertir les foules en jouant à pierre, feuille, ciseaux. Son taux de victoire en forte augmentation a démontré la capacité des ordinateurs à prédire notre comportement.

Marvin fonctionne grâce à Apache Spark. Par ailleurs, IBM a annoncé une nouvelle initiative baptisée Project Dataworks, combinant les fonctionnalités d’Apache Spark et Watson.

SAP part à la conquête du Cloud

altiscale

De son côté, SAP est revenu sur sa récente acquisition d’Altiscale, startup californienne du Big Data. Ce rachat permettra d’améliorer le service Cloud de SAP, en offrant par exemple un accès aux services Spark. La firme a également montré son moteur de requête Vora, capable d’utiliser le Machine Learning pour améliorer les opérations Big Data dirigées par l’IA.

Une fois de plus, la conférence Strata + Hadoop World s’est montrée riche en nouveautés pour l’industrie du Big Data. Cette édition 2016 montre que l’événement est l’un des plus importants pour le marché mondial des analyses de données.

 

Cet article Strata + Hadoop World 2016 : la conférence Big Data la plus importante de l’année a été publié sur LeBigData.fr.

]]>
MapR : un nouveau CEO venu d’Oracle https://www.lebigdata.fr/mapr-nouveau-ceo-venu-doracle Thu, 08 Sep 2016 20:13:54 +0000 https://www.lebigdata.fr/?p=2202 Le CEO de MapR, John Schroeder, vient de céder sa place à Matt Mills. Ce dernier prend les commandes de …

Cet article MapR : un nouveau CEO venu d’Oracle a été publié sur LeBigData.fr.

]]>
Le CEO de MapR, John Schroeder, vient de céder sa place à Matt Mills. Ce dernier prend les commandes de la firme, avec de nouvelles ambitions pour son développement et sa gestion.

Ancien membre exécutif d’Oracle, Matt Mills vient d’être nommé CEO de MapR. Il y a un an, l’homme quittait Oracle pour devenir président et COO de MapR Technologies. Depuis ce jeudi 8 septembre 2016, il occupe dorénavant le poste de CEO.

Il prend la place du cofondateur John Schroeder, qui occupera dorénavant un siège du conseil administratif. Celui-ci se concentrera sur la stratégie de produit et les relations consommateurs.

Une évolution naturelle

mills-schroeder-compressed

Selon MapR, cette nomination est une évolution naturelle pour Mills, après le développement d’Oracle en Amérique du Nord. Il faisait également partie du comité exécutif d’Oracle, et participait donc à la stratégie globale de l’entreprise. Son expérience dans la gestion d’opérations de grande envergure est un véritable atout pour MapR, selon John Schroeder. Ce dernier considère son successeur comme la garantie d’un avenir prometteur dans les cinq années à venir pour MapR.

Au début du mois d’août, la firme a levé plus de 50 millions de dollars dans le cadre d’une levée de fonds de série E menée par Future Fund. Cette somme s’ajoute à un total de 194 millions de dollars levés. On ignore à l’heure actuelle la valorisation de l’entreprise, composée de 500 personnes.

MapR, un acteur majeur du marché des Big Data

MapR se spécialise dans la création de logiciels de stockage et d’analyse du Big Data. Parmi ses principaux rivaux, on compte Hortonworks, rendu public depuis décembre 2014, et Cloudera, qui a levé plus de 1,2 milliard de dollars auprès d’entreprises comme Intel.

Par le passé, les exécutifs de MapR se sont montrés plutôt candides au sujet de leurs ambitions pour une offre publique initiale. L’automne dernier, la firme envisageait le début de l’année 2016. Aujourd’hui toutefois, ni Schroeder ni Mills ne souhaitent s’exprimer à ce sujet.

L’un des objectifs de Mills, selon ses propres dires, est de créer une entreprise IPO-ready. Par conséquent, MapR devrait être plus discipliné dans la dépense et la gestion de budget pour un chiffre d’affaires positif au premier semestre 2017. On peut également s’attendre à des transactions plus importantes. Pour l’heure, on ignore le nombre de clients actuels de MapR. Le dernier nombre révélé était de 700, et incluait des clients de prestige comme American Express et Cisco.

Cet article MapR : un nouveau CEO venu d’Oracle a été publié sur LeBigData.fr.

]]>
Teradata : des solutions analytiques pour transformer votre entreprise https://www.lebigdata.fr/teradata-solutions-analytiques-entreprise-2608 https://www.lebigdata.fr/teradata-solutions-analytiques-entreprise-2608#comments Fri, 26 Aug 2016 17:52:26 +0000 https://www.lebigdata.fr/?p=2111 Teradata est une entreprise californienne spécialisée dans les produits et services Big Data, Analytics et Data Warehousing. Découvrez les différentes …

Cet article Teradata : des solutions analytiques pour transformer votre entreprise a été publié sur LeBigData.fr.

]]>
Teradata est une entreprise californienne spécialisée dans les produits et services Big Data, Analytics et Data Warehousing. Découvrez les différentes solutions proposées par cette firme de prestige dans les domaines de l’analyse, du stockage et du marketing. 

Depuis plus de 35 ans, l’entreprise californienne Teradata regroupe plus de 1400 clients en provenance de 77 pays différents, et emploie 10000 personnes dans 43 pays différents. Son chiffre d’affaires en 2015 s’élève à 2,5 milliards de dollars. Au total, elle possède plus de 100 partenaires technologiques.

Parmi ses clients, Teradata compte les entreprises les plus influentes de nombreux secteurs différents. Banques, télécommunications, compagnies aériennes, acteurs du secteur de la santé, distribution, voyage, transport et fabrication sont quelques-uns de domaines dans lesquels Teradata est parvenue à s’imposer.

Cette firme propose de nombreux services et des solutions pour permettre à ses clients professionnels de développer leurs stratégies Data afin d’augmenter leur chiffre d’affaires, de gagner en efficacité et d’améliorer leurs relations clients. Ses solutions et services sont liés aux domaines du Big Data, de l’analytique, de l’entreposage de données (Data Warehousing) et des applications marketing.

Entreposage de données (Data Warehousing)

teradata-database-compressed

Les solutions d’entreposage de données proposées par Teradata permettent aux entreprises de recueillir de nombreuses données en provenance de sources diverses en vue d’analyses poussées. Elles permettent également de décloisonner les données, afin de prendre des décisions inspirées par les données. Elles aident également à obtenir des informations sur les clients, et une vision panoramique de l’organisation interne.

Teradata Database

Teradata se distingue de la concurrence grâce à sa base de données la plus puissante au monde, Teradata Database, conçue pour délivrer de grandes performances. Les analyses peuvent être effectuées au sein de cette base de données, et des requêtes diverses peuvent être exécutées. Cette base de données intègre toutes les solutions Data Warehouse de la firme.

Produits Data Warehouse

Les solutions Data Warehouse sont Teradata IntelliFlex, qui permet un entreposage actif, scalable et flexible des données. Teradata Enterprise Active Data Warehouse est un moteur d’entreposage de données en temps réel très puissant. Teradata Data Warehouse Appliance est un entrepôt de données versatile et intégré. Teradata Integrated Big Data Platform permet d’analyser les Big Data à moindre coût. Teradata Virtual Machine Edition est une option de déploiement de Cloud privé pour la Teradata Database.

teradata-intelliflex

Options de déploiement

La base de données Teradata Database peut être déployée au sein du Cloud privé grâce à la Virtual Machine Edition, mais aussi On-Premises, sur le Cloud public AWS ou Microsoft Azure, sur le Cloud hybride ou sur le Cloud géré proposé directement par Teradata moyennant un abonnement. Chaque entreprise peut choisir la solution qui lui convient.

Avantages

Les avantages des solutions Data Warehouse de Teradata sont la puissance de sa base de données, la vue panoramique qu’elle offre aux entreprises, la possibilité d’intégrer des données de multiples sources, le traitement in-memory intelligent, le logiciel Teradata QueryGrid, les coûts peu élevés, la disponibilité et la diversité des options de déploiement.

Data Lake

Teradata propose également d’aider les entreprises à gérer leur Data Lake grâce à Teradata Appliance for Hadoop, au moteur SQL Presto, à Aster Analytics pour Hadoop et à sa plateforme Big Data intégrée.

Big Data et Analytics

Les solutions Big Data et Analytics permettent quant à elles de mieux comprendre les problématiques d’une stratégie Big Data afin de les résoudre facilement. Elles permettent également de capitaliser sur les données métiers, et de découvrir des informations afin d’interagir avec les clients.

Teradata Aster Analytics

Grâce à Teradata Aster Analytics, les Business Analysts et les Data Scientists peuvent effectuer des Path Analytics, des analyses de textes pour comprendre l’opinion de la clientèle, des graphiques pour analyser les influences, des prédictions grâce au Machine Learning ou encore des analyses IoT.

Les avantages de ce produit sont la possibilité de collecter, préparer et analyser les données au sein d’une même interface, de créer des Data Visualizations et de dégager des informations exploitables. Il s’agit d’un outil analytique intuitif, permettant de découvrir de nouveaux marchés, d’identifier des idées de produits et de découvrir de nouveaux segments de clients.

Aster Analytics regroupe plus d’une centaine de requêtes analytiques pré-construites. De même, les moteurs analytiques Graph, MapReduce et R sont regroupés au sein d’un même framework Teradata SNAP afin d’optimiser les performances et la facilité d’usage. Cette plateforme permet également de repousser les limites de R. L’Apps Center, basé sur le web, offre une interface intuitive pour le partage et le déploiement de données au sein d’Aster Analytics. Les utilisateurs,  y compris le personnel sans compétences techniques, peut ainsi analyser le big data en self-service.

Teradata Unified Data Architecture

teradata-architecture

Le logiciel d’architecture Big Data Teradata Unified Data Architecture permet de centraliser toutes les données d’une entreprise sur une même plateforme. Les données en provenance de toutes les sources telles que Teradata Integrated Data Warehouse, Aster Discovery Platform, Hadoop et d’autres systèmes encore sont agrégées au sein d’une même architecture.

Les utilisateurs peuvent librement collecter, déployer, prendre en charge et gérer ces données. Les données peuvent ainsi être converties en informations précises exploitables pour le business.

Teradata QueryGrid

Cette architecture regroupe plusieurs logiciels Teradata. Ces logiciels sont Teradata QueryGrid, Teradata Listener, Teradata Unity et Teradata Viewpoint. Teradata QueryGrid permet aux moteurs de traitement d’opérer au sein d’un même environnement. Les requêtes SQL peuvent être effectuées simultanément sur de multiples plateformes de données. Ce logiciel offre également un accès instantané vers Hadoop. Le Teradata Connector for Hadoop permet aux applications, outils et programmeurs d’accéder aux données et de les transférer au sein de la Taradata Unified Data Architecture. Ce connecteur assure la liaison entre Teradata et Hadoop, y compris les distributions Hortonworks, Cloudera et MapR.

teradata-querygrid

Teradata Listener

Teradata Listener est une solution self-service permettant d’ingérer et de distribuer des flux de données très rapidement via l’écosystème analytique UDA. Cet outil est conçu comme un framework d’ingestion pour les entreprises pourvues de multiples flux de données. Il permet de minimiser la complexité du développement des flux de données, d’opérer de façon centralisée pour ingérer et gérer des centaines de flux, et de délivrer des données sans perte.

teradata-listener

Terada Unity

Teradata Unity regroupe quatre produits intégrés permettant de transformer un environnement multi-système en un écosystème analytique orchestré. Il garantit une disponibilité pour les applications critiques, une optimisation des workloads, et une scalabilité pour les plateformes workload. Ces quatre produits sont :

_ Unity Director, qui permet de synchroniser les données et les bases de données.

_ Unity Loader, qui synchronise les données entre les systèmes et les maintient à jour.

_ Unity Data Mover, pour copier les données avec fluidité entre les systèmes Teradata, Aster Discovery et Hadoop.

_ Unity Ecosystem Manager, pour une gestion bout à bout de Teradata Integrated Data Warehouse, Teradata Aster Discovery Platform et Hadoop. Le statut de ces systèmes peut être surveillé, au même titre que leur interdépendance. L’utilisateur reçoit des alertes concernant le statut des requêtes et les éventuels problèmes de latence.

Teradata Viewpoint

Ce logiciel permet à tous les utilisateurs et les administrateurs de créer un tableau de bord d’outils personnalisés pour gérer l’environnement Teradata. Il s’agit d’un outil self-service, permettant à l’utilisateur d’inclure les outils dont il a besoin au sein du portail de tableau de bord. Il offre un accès pour surveiller et gérer l’environnement Teradata.

Teradata Portfolio for Hadoop

teradata-hadoop

Afin d’aider les entreprises à développer leurs initiatives Big Data basées sur Hadoop, Teradata propose un portfolio de solutions Hadoop simplifiées pour les architectures modernes. Ce portfolio regroupe les plateformes Hadoop les plus flexibles et avancées. Grâce à son expertise en technologies Big Data, Teradata excelle dans la fourniture de logiciels Hadoop, l’assistance d’implémentation, la personnalisation et le hardware. Les avantages de Teradata face à la concurrence dans ce domaine sont notamment la facilité d’implémentation, la vitesse de production, les nombreuses options d’intégration, et les services tels que l’accès, l’architecture et la gestion de projets Hadoop.

Les produits Hadoop du portfolio Teradata sont Teradata Appliance for Hadoop, Presto, Aster Analytics et Teradata Hadoop Services. Teradata Appliance for Hadoop est une solution pré-configurée pour le stockage et la découverte de donnée. Presto est un moteur de requêtes SQL open source créé par Facebook, permettant d’accéder aux données au sein de Apache Hive, Apache Cassandra, et autres bases de données relationnelles. Aster Analytics regroupe une centaine de fonctions analytiques au sein d’une même interface. Enfin, les services Hadoop proposés par Teradata sont le mentoring, la maintenance, le support et la couverture pour Cloudera, Hortonworks et MapR.

Solution Marketing

teradata-marketing

Marketing en temps réel

Le Teradata Real-Time Interaction Manager permet d’accéder facilement aux informations sur les clients de votre entreprise, et de répondre à leurs demandes à l’aide de messages pertinents sur tous les canaux à n’importe quel moment. Les décisions en temps réel peuvent être prises pour améliorer la stratégie marketing de l’entreprise.

Du contenu pertinent peut être fourni aux clients sur tous les canaux, en ligne ou hors ligne. La gestion de l’expérience client est effectuée sur mesure. La satisfaction et la loyauté des clients sont améliorées tout au long du cycle de vie. Les initiatives marketing sont alignées avec les stratégies de l’entreprise. Les interactions authentiques et individualisées avec chaque client sont rendues possibles. L’apprentissage automatique permet au fil du temps de repérer les messages et les canaux qui fonctionnent le mieux pour chaque client.

Customer Interaction Manager

Le Customer Interaction Manager permet d’exploiter les données des clients en accédant à tout moment aux données de campagnes, aux historiques d’achat, aux tendances ou aux empreintes sociales et mobiles. Les entreprises peuvent efficacement segmenter leur audience, visualiser l’impact des stratégies de segmentation sur l’engagement, sélectionner le bon message pour le bon client, et prédire les réponses des clients aux offres stratégies, en se basant sur les données historiques. Il est possible d’envoyer des messages personnalisés et pertinents en se basant sur des attributs et des comportements spécifiques. Des offres personnalisées peuvent être créées et gérées pour s’aligner avec la stratégie de communication de la marque.

Cet article Teradata : des solutions analytiques pour transformer votre entreprise a été publié sur LeBigData.fr.

]]>
https://www.lebigdata.fr/teradata-solutions-analytiques-entreprise-2608/feed 2
Big Data et sécurité : dangers, limites et problèmes à résoudre https://www.lebigdata.fr/big-data-securite-dangers-limites-problemes-a-resoudre https://www.lebigdata.fr/big-data-securite-dangers-limites-problemes-a-resoudre#comments Thu, 04 Aug 2016 16:00:15 +0000 https://www.lebigdata.fr/?p=1963 Alors que les infrastructures de données comme Hadoop se démocratisent de plus en plus, la sécurité de ces solutions laisse …

Cet article Big Data et sécurité : dangers, limites et problèmes à résoudre a été publié sur LeBigData.fr.

]]>
Alors que les infrastructures de données comme Hadoop se démocratisent de plus en plus, la sécurité de ces solutions laisse cruellement à désirer. Le risque de vulnérabilité majeure pour le Big Data est de plus en plus redouté par les spécialistes. 

À la vitesse à laquelle les logiciels Big Data sont commercialisés, et compte tenu de la quantité de données qui en dépendent, le marché s’expose à des problèmes majeurs de sécurité. Tôt ou tard, une faille critique risque d’être découverte et de semer le chaos. Selon une étude menée par Gartner, très peu d’entreprises sont préoccupées par la sécurité d’infrastructures comme Hadoop. Seuls 2% des personnes interrogées considèrent la sécurité comme une priorité.

Les CIO semblent préférer fermer les yeux et espérer qu’aucun problème de sécurité ne vienne perturber leurs projets Big Data. Malheureusement, prier ne suffira pas pour éviter le pire. Il ne faut pas oublier que les Big Data sont enracinées dans des origines qui ne sont pas surveillées et suivies de façon consistante, notamment à cause de leur taille.

Un manque de sécurité

hadoop-securite

Il est probable que la plupart des utilisateurs d’Hadoop supposent que la plateforme est sécurisée. Il n’en est rien. Des vulnérabilités existent à toutes les échelles des stacks, y compris au niveau des données. En 2014, seuls 5% des requêtes Hadoop couvertes par l’équipe Info Mgmt concernaient la sécurité.

Selon l’ingénieur en sécurité Ray Burgemeestre, de plus en plus de personnes s’interrogent pour savoir si un cluster est réellement sécurisé une fois que tous les paramètres de sécurités d’Hadoop ou Spark sont activés. En réalité, des efforts doivent être déployés par la communauté Hadoop pour augmenter cette sécurité. Elle n’est pas satisfaisante à l’heure actuelle.

Selon Bolke de Bruin, directeur R&D chez ING Bank, la communauté Hadoop continue à prêter une attention limitée à l’intégrité des données. En d’autres termes, à maintenir et à assurer la précision et l’intégralité des données tout au long de leur cycle de vie. Elle est pourtant désormais consciente de la nécessité de protéger la confidentialité des données au sein des clusters. Par ailleurs, même la sécurité native d’Hadoop n’est souvent pas implémentée, car perçue comme trop complexe. Dans d’autres cas, cette sécurité est ignorée parce que des frameworks comme Apache Ranger sont difficilement utilisables.

Un problème de temps

En tant que leader des infrastructures Big Data, si Hadoop ne peut élever son niveau de sécurité en dépit des petabytes de données stockées dans ses clusters, une catastrophe semble tout bonnement inévitable. Le principal problème est le manque de temps.

Comme le démontre MobileIron dans un récent rapport sur la sécurité mobile, plus un logiciel reste sur le marché, plus les vulnérabilités ont des chances d’être identifiées. C’est particulièrement vrai en ce qui concerne les logiciels open source, offrant la capacité d’explorer le code source avant ou après qu’une vulnérabilité apparaisse.

Le marché des infrastructures Big Data, quoi qu’il en soit, n’est pas assez ancien pour que des vulnérabilités soient découvertes. Un rapport publié par Gartner en 2015 avertit les acheteurs d’entreprises de ne pas se baser sur des versions d’Hadoop datées de plus d’un an. Les anciennes vieillissent, et les nouvelles apparaissent plus rapidement.

kafka

Ce rythme rapide est appréciable au nom de l’innovation, mais représente également un problème de sécurité. Plus Hadoop se démocratise, plus les risques majeurs se profilent. Ils ne concernent d’ailleurs pas qu’Hadoop, mais également Spark, Kafka, et d’autres infrastructures de données. Selon Zeynep Tufekci, ce sont de véritables gratte-ciels bâtis sur des zones de séisme.

Le prix de la sécurité

En réponse, des vendeurs comme Cloudera ou Hortonworks tentent déjà de se démarquer en proposant une sécurité renforcée. Par conséquent, la sécurité pourrait se payer au prix fort, mais ce prix doit être payé.

Cet article Big Data et sécurité : dangers, limites et problèmes à résoudre a été publié sur LeBigData.fr.

]]>
https://www.lebigdata.fr/big-data-securite-dangers-limites-problemes-a-resoudre/feed 4
MapR : une solution Big Data pour les entreprises dynamiques https://www.lebigdata.fr/mapr https://www.lebigdata.fr/mapr#comments Thu, 28 Jul 2016 16:29:09 +0000 https://www.lebigdata.fr/?p=1900 L’entreprise MapR propose une plateforme Big Data regroupant les composants Apache Hadoop et Spark, une base de données en temps …

Cet article MapR : une solution Big Data pour les entreprises dynamiques a été publié sur LeBigData.fr.

]]>
L’entreprise MapR propose une plateforme Big Data regroupant les composants Apache Hadoop et Spark, une base de données en temps réel et un espace de stockage. Il s’agit d’une solution idéale pour les entreprises souhaitant déployer une stratégie Big Data sans interruption à moindre coût et en toute sécurité.

MapR est une entreprise de création de logiciels, fondée en 2009, et située à San Jose, en Californie. Elle est à l’origine de plusieurs des principaux projets open source Hadoop, dont Apache HBase, Apache Hive, Apache Zookeeper ou encore Apache Pig. Cette entreprise vend ses propres projets Hadoop à des clients en provenance de nombreuses et diverses industries telles que la vente au détail, les services financiers, les médias, la santé, la manufacture, les télécommunications et le secteur public.

Elle propose trois versions de son produit Apache Hadoop. Ces trois versions sont nommées M3, M5 et M7. M3 est une version gratuite, M5 est payante et propose davantage de fonctionnalités, tandis que M7 ajoute une version modifiée d’HBase implémentant l’API HBase directement dans le système de fichiers.

mapr-converged-data-platform

En 2016, MapR a lancé un nouveau produit baptisé Converged Data Platform. Ce produit regroupe le système pub-sub MapR Streams, le document store no-sql MapRDB et tous les composants de l’écosystème Hadoop intégrés au même système de fichiers distribué.  L’objectif est de combiner la puissance d’Hadoop et Spark avec un flux global d’événements, des capacités de base de données en temps réel, et un stockage d’entreprise pour utiliser ou développer des applications data novatrices.

Des partenariats avec les leaders du Cloud

Outre ses contributions à des projets Hadoop, MapR est également connue pour ses partenariats avec d’autres leaders de la tech. Par exemple, la distribution Hadoop de MapR est intégrée au framework Google Compute Engine. Il est possible d’y accéder par le biais de l’infrastructure Cloud de Google. Elle est également proposée en option au sein du service Amazon Elastic MapReduce. Les clients peuvent s’approvisionner en clusters Hadoop à travers ce service. Elle est également prise en charge par la plateforme analytique HP Vertica.

MapR, leader en performances, disponibilité, et compatibilité API

jack-norris-mapr

Selon le vice-président au marketing de MapR, Jack Norris, les entreprises accordent peu d’importance au fait qu’une distribution Hadoop soit purement open source, ou qu’elle comporte des composants propriétaires. Leurs priorités sont les hautes performances, la disponibilité, et la compatibilité avec les API. Il s’agit là de la philosophie de MapR, qui la démarque de ses concurrents.

Toujours selon Norris, MapR est le leader dans ces trois catégories, et sa clientèle est là pour le prouver. En 2012, à l’époque à laquelle ce discours fut tenu, la firme comptait entre 40 et 50 clients utilisant sa distribution M5 Hadoop intégrant le stockage NFS. On dénombrait parmi ces usagers comScore, la firme d’intelligence de marché en ligne. De même, la solution gratuite M3 avait été téléchargée plusieurs milliers de fois.

Les avantages de MapR pour la performance et la disponibilité sont multiples :

_ L’architecture de M5 permet de combler la seule faille de HDFS

_ Le Lockless Storage Service, qui se traduit par un meilleur usage de MapReduce

_ La capacité à lancer le même nombre de tâches sur un nombre de nœuds moindre, réduisant le TCO. 

En 2013, MapR a battu le record du test benchmark MinuteSort, permettant de mesurer combien de données un système peut trier en une minute. MapR était capable de trier 15 milliards de fichiers 100-byte, soit 1,5 terabytes en 59 secondes.

Une approche originale de l’Open Source

Cependant, c’est par son approche de l’open source que MapR se distingue véritablement. Cette approche consiste à améliorer une base open source à l’aide de composants et de services propriétaires. Selon Norris, il s’agit d’un modèle standard dans le domaine commercial de l’open source. Cependant, beaucoup considèrent que le stockage est bel et bien le cœur d’une distribution Hadoop et non un simple add-on

Norris affirme également que l’important n’est pas que la distribution Hadoop soit purement open source ou non, mais avant tout 100% compatible avec l’API Apache. C’est le cas de M5. En conséquence, les développeurs peuvent facilement intégrer la distribution MapR avec HBase, HDFS et d’autres composants Apache Hadoop. Ils peuvent également aisément transférer des données vers ou en provenance de NFS.

mapr-performance

Une stratégie go-to-market pragmatique

Cette focalisation vers la performance, la disponibilité et la compatibilité API s’inscrit dans la stratégie go-to-market de MapR. La firme ne cherche pas à enseigner les avantages d’Hadoop sur le marché, contrairement à Cloudera et Hortonworks. Elle cherche à cibler les entreprises qui utilisent déjà Hadoop ou ont décidé de déployer Hadoop et évaluent les options de distribution.

Ainsi, MapR cible les clients qui comprennent déjà les possibilités offertes par Hadoop et souhaitent une version hautement disponible, optimisée pour les entreprises, qu’ils peuvent rapidement déployer et intégrer avec d’autres outils et technologies Big Data au travers d’API ouvertes. Elle vise des clients ayant déjà une expérience avec Cloudera ou Apache, prêts à utiliser Hadoop pour la production.

Une entreprise qui ne craint pas la concurrence

mapr-cloudera-hortonworks

La stratégie de MapR comporte plusieurs risques. La plus grande menace serait que Apache Hadoop rattrape M5 en termes de performances et de disponibilité, avant que ce dernier ne se démocratise. La valeur ajoutée serait alors tout bonnement supprimée. Les contributeurs d’Apache ont d’ailleurs créé une fédération HDFS pour résoudre le principal problème du système.

Un autre risque est que la stratégie performance/disponibilité/compatibilité API ne parvienne pas à séduire les CIO. La communauté open source Hadoop et le marketing des concurrents risque en effet d’étouffer cette communication. Des rivaux comme Hortonworks ou Cloudera sont plus importants en taille que MapR, et sont plus enclins à devenir les standards de la distribution Hadoop. Malgré ces menaces, Norris ne pense pas que la distribution Apache puisse égaler M5. Le namenode distribué de MapR est supérieur à celui de la fédération par sa capacité à s’auto-régénérer, sans nécessiter l’intervention de l’utilisateur.

Cet article MapR : une solution Big Data pour les entreprises dynamiques a été publié sur LeBigData.fr.

]]>
https://www.lebigdata.fr/mapr/feed 2
Cloudera : quel futur pour le Big Data ? https://www.lebigdata.fr/futur-big-data https://www.lebigdata.fr/futur-big-data#comments Mon, 06 Jun 2016 09:09:18 +0000 https://www.lebigdata.fr/?p=1526 Afin d’explorer et d’anticiper le futur du Big Data, le spécialiste Bernard Marr s’est entretenu avec Mike Olson, l’un des …

Cet article Cloudera : quel futur pour le Big Data ? a été publié sur LeBigData.fr.

]]>
Afin d’explorer et d’anticiper le futur du Big Data, le spécialiste Bernard Marr s’est entretenu avec Mike Olson, l’un des fondateurs de Cloudera. Ensemble, ils tentent de prédire l’avenir de cette nouvelle technologie.

Fondé en 2008, Cloudera fait figure de précurseur dans le domaine du Big Data. À l’époque, ce terme était encore  inconnu de la plupart des entreprises. Seuls les programmeurs en Java œuvrant pour Facebook ou Yahoo connaissaient l’existence d’Hadoop. Aujourd’hui, grâce à sa position de pionnier, Cloudera fournit la technologie Open Source utilisée dans la plupart des projets analytiques de grande envergure. La firme investit également massivement dans le développement de nouveaux outils et applications ouvrant l’accès au plus grand nombre à des technologies comme le Machine Learning, les analyses en temps réel, et à une meilleure utilisation des données non structurées.

C’est après son départ d’Oracle que Olson a commencé à travailler au développement d’un logiciel de base de données Open Source avant de s’associer avec d’anciens ingénieurs de Yahoo, Google et Facebook dotés d’une expérience avec Hadoop. En 2009, Cloudera devient le premier vendeur commercial d’Hadoop. Il participe ainsi à l’explosion de l’usage d’analytiques Big Data dans l’industrie. Grâce à Hadoop, un accès abordable au stockage distribué pour architectures grande échelle est proposé, au même titre que les technologies fondamentales comme MapReduce, indispensables pour un projet Big Data.

Au commencement, Cloudera devait donc s’interroger sur l’utilité du Big Data. L’entreprise devait déterminer pourquoi les données sont importantes, pourquoi elles sont utiles, et surtout pourquoi Hadoop est la meilleure plateforme pour les exploiter.

cloudera

Désormais, tous les analystes savent que le Big Data est l’outil qui va redéfinir le monde de l’entreprise, et toute l’industrie technologique ne parle plus que d’Hadoop. Toutefois, ces technologies existaient déjà sous la forme de deux composants complexes. Le système de fichier HDFS, qui permettait de répartir de larges quantités de données sur des supports de stockages bon marché, et le framework MapReduce permettant de récupérer et de traiter ces données. Cependant, il était nécessaire de développer des outils supplémentaires pour le faire.

La naissance d’un écosystème

Ces dernières années, un riche écosystème s’est formé autour du Big Data, composé d’entreprises comme Cloudera qui vendent Hadoop, mais également de firmes innovant dans les systèmes de stockage, et tentant d’apporter une réelle valeur ajoutée pour leur clientèle.

C’est cet écosystème, et le développement de logiciels Open Source HBase, Spark ou Impala qui a permis l’essor du Big Data et les nombreuses opportunités qu’il offre à présent. Grâce à ces solutions, le Big Data n’est plus uniquement le domaine réservé des experts en statistiques et en sciences informatiques.

Il est également accessible à de nombreux secteurs, tels que l’industrie médicale, dans laquelle il permet de créer de nouveaux traitements. Dans les services financiers, l’analyse de données permet d’empêcher les transactions frauduleuses. Dans l’humanitaire, le Big Data aide à gérer les conséquences des guerres et des catastrophes naturelles.

Les publicitaires l’utilisent pour mieux cibler leurs clients. Les vendeurs aux détails peuvent maintenant proposer de meilleures offres promotionnelles. Par ailleurs, le Big Data permet de résoudre progressivement d’importants problèmes économiques et sociaux. C’est notamment le cas en Colombie où le gouvernement commence à se servir de cette nouvelle technologie.

Des outils pour remplacer le personnel qualifié

Selon Olson, des dizaines de milliers de personnes ont été formées à l’utilisation d’Hadoop. Cependant, il est impossible d’apprendre à toute l’humanité à se servir du Big Data. D’ici peu, de nouveaux outils novateurs permettront de compenser le manque de personnes qualifiées pour l’analyse de données afin de répondre aux besoins des entreprises. Malgré tout, des entreprises comme Cloudera et des Data Scientists qualifiés seront toujours nécessaires pour installer et maintenir une plateforme Big Data répondant aux exigences de qualité de sécurité d’une entreprise.

hadoop

Vers une révolte des particuliers ?

Dans un futur proche, le sort de l’industrie du Big Data pourrait reposer entièrement sur l’opinion des particuliers. Deux options sont envisageables. Les masses peuvent percevoir les avantages à laisser les gouvernements et les entreprises accéder à leurs données, et ouvrir davantage l’accès à leur vie privée en vue d’un meilleur niveau de confort et de sécurité. Au contraire, il est possible que le manque de confiance mène au déploiement d’un effort collectif pour dissimuler le maximum de données personnelles.

La direction empruntée par les particuliers pourrait dépendre d’événements à venir. Par exemple, si Facebook est piraté demain et que toutes les conversations sont publiquement exposées, le Big Data risquerait de devenir la cible de toutes les critiques.

Pour Olson, c’est la raison pour laquelle il est essentiel d’investir massivement dans la sécurité des infrastructures et de construire des mécanismes de protection infaillibles. Toutefois, un dialogue éthique entre les créateurs de données et les organisations qui les collectent est également indispensable. Ce dialogue n’en est encore qu’à ses débuts et doit absolument être pris plus au sérieux.

En résumé, Mike Olson envisage le futur du Big Data comme le développement de nouveaux outils et innovations, et l’ouverture de l’accès à ces solutions analytiques avancées au plus grand nombre. Par ailleurs, il souligne l’importance d’un dialogue éthique entre les développeurs, les industries, les gouvernements et le public au sujet de l’exploitation des données et de la sécurité.

Cet article Cloudera : quel futur pour le Big Data ? a été publié sur LeBigData.fr.

]]>
https://www.lebigdata.fr/futur-big-data/feed 3
Le marché du Big Data atteindrait 67 milliards de dollars en 2021 https://www.lebigdata.fr/marche-big-data-atteindrait-67-milliards-de-dollars-2021 Thu, 26 May 2016 16:30:02 +0000 https://www.lebigdata.fr/?p=1467 Selon une étude menée par MarketsandMarkets, le marché du Big Data mondial pourrait atteindre une valeur de 66,79 milliards de dollars en …

Cet article Le marché du Big Data atteindrait 67 milliards de dollars en 2021 a été publié sur LeBigData.fr.

]]>
Selon une étude menée par MarketsandMarkets, le marché du Big Data mondial pourrait atteindre une valeur de 66,79 milliards de dollars en 2021. Si cette prévision s’avère exacte, elle représenterait une croissance de 18,45% par an. 

À l’heure actuelle, le marché mondial du Big Data est estimé à 28,65 milliards de dollars. Selon une étude menée par MarketsandMarkets, intitulée « Big Data Market by Component (Software and Services), Type (Structured, Semi-Structured and Unstructured), Deployment Model, Vertical, and Region (North America,Europe, Asia-Pacific, Latin America & Middle East and Africa) – Global Forecast to 2021 », cette valeur s’élèverait à 66,79 milliards dollars en 2021. Cette évolution représente une croissance annuelle de 18,45% pour les cinq prochaines années.

marketsand-markets 

Cette croissance rapide est liée à plusieurs facteurs. Partout dans le monde, de nombreuses entreprises ont déployé des solutions Big Data pour analyser et gérer les données générées par leur activité afin de les assister dans la prise de décision rapide. En conséquence, les données collectées par les entreprises sont de plus en plus nombreuses.

De même, l’augmentation du nombre d’appareils mobiles, d’objets connectés et d’applications en circulation participe à l’augmentation de la valeur du Big Data. Il en va de même pour la transition de beaucoup d’entreprises, dans tous les secteurs, de technologies analogiques au tout numérique.

Les services et les logiciels, toujours plus nombreux

Pour répondre au besoin de solutions analytiques, de nombreuses entreprises développent des logiciels et des services novateurs. Parmi les principaux acteurs de cette nouvelle industrie, on dénombre IBM, Oracle, Microsoft, Hewlett-Packard, SAP SE, Amazon Web Services, SAS Institute, Dell Inc., Teradata Corporation ou encore Splunk.

big-data-entreprises

D’autres noms, moins connus dans le domaine de la technologie, font leur apparition grâce à leurs innovations. C’est le cas de Palantir, Cloudera, Hitachi, Mongo DB ou Gooddata. Ces firmes proposent des solutions plus localisées, mais tout aussi efficaces pour l’analyse ou le stockage de données.

Le marché est divisé entre les logiciels et les services. Le segment des logiciels regroupe les solutions analytiques, les plateformes de gestion de données, et les logiciels de Data Discovery et de Data Visualization. La notion de services quant à elle regroupe le consulting, l’intégration, la formation, le support et les services gérés. Outre cette distinction principale, une division est effectuée entre les types de Big Data, les modèles de déploiement, la verticalité et les zones géographiques.

Les logiciels analytiques s’octroient la plus grande part du marché du Big Data

Sur le marché des logiciels Big Data, ce sont les logiciels d’analyse qui devraient conserver la plus grande part du marché. La capacité d’analyser les données pour obtenir des informations exploitables est la plus recherchée par les entreprises. C’est pourquoi beaucoup d’entre elles mettent en place de tels logiciels.

En ce qui concerne les services, ce sont les services gérés qui attireraient le plus grand nombre de clients. Ce segment bénéficierait de la plus forte croissance sur la période des cinq années à venir.

L’Asie-Pacifique est la région la plus prolifique

Concernant les tendances géographiques, c’est l’Amérique du Nord qui conserverait la plus grande part du marché. En revanche, le marché de l’Asie-Pacifique bénéficierait d’une croissance plus rapide.

data-center-mumbai

Cette célérité est principalement liée à l’essor de l’industrie manufacturière de cette région. Elle découle également de la multiplication des Data Centers dans des pays en développement tels que l’Inde ou la Chine. Pour faire face à l’augmentation du volume de données, les entreprises locales sont en recherche de solutions d’analyses en temps réel.

En outre, l’Amérique latine, le Moyen-Orient et l’Afrique représentent également un fort potentiel de croissance pour le marché. Ces régions sont enclines à adopter des solutions logicielles et à faire appel à des services liés au Big Data.

Cet article Le marché du Big Data atteindrait 67 milliards de dollars en 2021 a été publié sur LeBigData.fr.

]]>