Oracle – LeBigData.fr https://www.lebigdata.fr Le magazine du Big Data et du Cloud Computing Wed, 24 Jul 2019 10:37:28 +0000 fr-FR hourly 1 Oracle vs Microsoft SQL Server : quel est le meilleur RDBMS ? https://www.lebigdata.fr/oracle-vs-microsoft-sql-server-1612 Wed, 10 Jul 2019 09:52:12 +0000 https://www.lebigdata.fr/?p=3133 Oracle et Microsoft SQL Server sont les deux principaux systèmes de gestion de bases de données relationnelles. Ces deux systèmes …

Cet article Oracle vs Microsoft SQL Server : quel est le meilleur RDBMS ? a été publié sur LeBigData.fr.

]]>
Oracle et Microsoft SQL Server sont les deux principaux systèmes de gestion de bases de données relationnelles. Ces deux systèmes présentent plusieurs différences majeures, susceptibles d’influencer le choix des entreprises. Découvrez quelles sont ces différences. 

Il existe de nombreux systèmes de gestion de base de données relationnelle (RDBMS) de serveur SQL. Parmi les plus connues, on compte notamment Microsoft Access, Sybase, et MySQL. Les deux plus populaires et utilisées sont Oracle et Microsoft SQL Server. Il existe de nombreuses similitudes mais aussi des différences essentielles entre les deux plateformes. Ces différences concernent notamment les langages de commande, la prise en charge du contrôle de transactions et l’organisation des objets de bases de données.

Les principales différences entre Oracle et Microsoft SQL Server

Langage de commande

sql

La principale différence entre ces deux RDBMS provient du langage qu’ils utilisent. Les deux systèmes reposent sur une version du Structured Query Language (SQL). Cependant, MS SQL Server utilise le Transact SQL, ou T-SQL, une extension de SQL originellement développée par Sybase et utilisée par Microsoft. Oracle, de son côté, utilise PL/SQL, ou Procedural Language/SQL.

Ces deux langages sont des déclinaisons de SQL, et chacun a une syntaxe et une capacité différente. La principale différence entre les deux est la façon dont ils prennent en charge des variables et des fonctions natives. Au sein d’Oracle, PL/SQL peut aussi grouper des procédures sous forme de packages, ce qui ne peut pas être fait dans MS SQL Server. En somme, PL/SQL et plus complexe et potentiellement plus puissant, tandis que T-SQL est plus simple et facile d’utilisation.

Contrôle de transaction

Une autre différence majeure entre Oracle et MS SQL Server est le contrôle de transaction. Une transaction se rapporte à un groupe d’opérations ou de tâches à traiter comme une unité individuelle. Par exemple, une collection de requêtes SQL modifiant les enregistrements qui doivent tous être mis à jour simultanément dans un Serveur SQL.

Par défaut, MS SQL Server exécute chaque commande/tâche individuellement. Il sera difficile ou impossible de revenir en arrière en cas d’erreurs. La commande  « BEGIN TRANSACTION » lance le début d’une transaction. L’affirmation  « COMMIT » permet d’écrire les données modifiées sur le disque et de mettre fin à la transaction. Dans le cadre d’une transaction, la commande  « ROLLBACK » permet d’annuler tous les changements effectués au sein d’un bloc de transaction, et offre une protection contre la corruption de données. Après une  commande « COMMIT », il n’est pas possible de revenir en arrière.

Avec Oracle, chaque nouvelle connexion à une base de données correspond à une nouvelle transaction. En effet, les changements liés aux requêtes et aux commandes se déroulent uniquement en mémoire. Rien n’est confirmé jusqu’à ce qu’une commande « COMMIT » soit validée. La seule exception concerne les commandes DDL : elles s’exécutent immédiatement. Après une commande « COMMIT », la commande suivante initie une nouvelle transaction, et le processus commence à nouveau. La flexibilité et le contrôle des erreurs s’en trouvent accrus.

microsoft-sql-oracle

L’organisation des objets de base de données

La dernière différence est la façon dont les RDMBS organisent les objets de bases de données dans le serveur SQL. Le MS SQL Server organise tous les objets tels que des tableaux, les vues et les procédures en fonction des noms de bases de données. Les utilisateurs se voient assigner un identifiant permettant l’accès à une base de données spécifique et à ses objets. De même, chaque base de données a un fichier disque privé, non partagé sur le serveur.

Sur Oracle, Les schémas regroupent tous les objets de base de données. Ces derniers sont partagés parmi les schémas et les utilisateurs. Même si tout est partagé, les administrateurs mettent en place un système de permission afin de régir les accès aux données.

En conclusion, Oracle et SQL Server sont deux puissantes options RDBMS pour un serveur SQL. Même si certaines différences les distinguent, ces deux solutions peuvent être utilisées de façon équivalente. Aucune ne surpasse l’autre, mais chacune peut être plus favorable selon la situation.

MAJ 07/19 : Pour les clients de Microsoft et de Google, un nouveau service va leur facilité la tâche quant à la gestion des serveurs SQL. En 2020, Google Cloud SQL sera compatible avec Microsoft SQL Server. Ainsi, les possesseurs de ces bases pourront  les migrer plus facilement dans le Cloud de Google, sans forcément passer par Azure. GCP prend déjà en charge le RDBMS via des machines virtuelles. Avec la mise à jour, les manipulations de fichiers seront normalement facilités. Les utilisateurs pourront notamment y associer BigQuery pour lancer des analyses et développer des algorithmes de machine learning.

Cet article Oracle vs Microsoft SQL Server : quel est le meilleur RDBMS ? a été publié sur LeBigData.fr.

]]>
Data Mining : qu’est ce que l’exploration de données ? https://www.lebigdata.fr/data-mining-definition-exemples Wed, 31 Jan 2018 11:34:30 +0000 https://www.lebigdata.fr/?p=1980 Le Data Mining est une composante essentielle des technologies Big Data et des techniques d’analyse de données volumineuses. Il s’agit …

Cet article Data Mining : qu’est ce que l’exploration de données ? a été publié sur LeBigData.fr.

]]>
Le Data Mining est une composante essentielle des technologies Big Data et des techniques d’analyse de données volumineuses. Il s’agit là de la source des Big Data Analytics, des analyses prédictives et de l’exploitation des données. Découvrez la définition complète du terme Data Mining. 

Data mining définition

Forage de données, explorations de données ou fouilles de données, ce sont les traductions possibles du data mining en Français. En règle générale, le terme Data Mining désigne l’analyse de données depuis différentes perspectives et le fait de transformer ces données en informations utiles, en établissant des relations entre les données ou en repérant des patterns. Ces informations peuvent ensuite être utilisées par les entreprises pour augmenter un chiffre d’affaires ou pour réduire des coûts. Elles peuvent également servir à mieux comprendre une clientèle afin d’établir de meilleures stratégies marketing.

Qu’est ce qu’un data mining ?

Les logiciels Data Mining font partie des outils analytiques utilisés pour l’analyse de données. Ils permettent aux utilisateurs d’analyser des données sous différents angles, de les catégoriser, et de résumer les relations identifiées. Techniquement, le Data Mining est le procédé permettant de trouver des corrélations ou des patterns entre de nombreuses bases de données relationnelles.

Le Data Mining repose sur des algorithmes complexes et sophistiqués permettant de segmenter les données et d’évaluer les probabilités futures. Le Data Mining est également surnommé Knowledge Discovery in Data (Data mining traduction ? La découverte de savoir dans les données).

Une évolution technologique naturelle

data mining processus

Le terme Data Mining est relativement récent, mais la technologie ne l’est pas. Depuis des années, les entreprises utilisent de puissants ordinateurs pour traiter les larges volumes de données accumulés par les scanners des supermarchés et pour analyser les rapports de recherches sur les marchés. De même, les innovations continuelles dans les domaines du calcul informatique, du stockage, et des logiciels statistiques augmentent fortement la précision des analyses et dirigent la réduction des coûts.

Données, informations et savoir dans le Data Mining

Données

Les données sont des faits, des nombres, ou des textes pouvant être traités par un ordinateur. Aujourd’hui, les entreprises accumulent de vastes quantités de données sous différents formats, dans différentes quantités de données. Parmi ces données, on distingue :

  1. Les données opérationnelles ou transactionnelles telles que les données de ventes, de coûts, d’inventaire, de tickets de caisse ou de comptabilité.
  2. Les données non opérationnelles, telles que les ventes industrielles, les données prévisionnelles, les données macro-économiques.
  3. Les métadonnées, à savoir les données concernant les données elles-mêmes, telles que les définitions d’un dictionnaire de données.

Informations

Les patterns, associations et relations entre toutes ces données permettent d’obtenir des informations. Par exemple, l’analyse des données de transaction d’un point de vente permet de recueillir des informations sur les produits qui se vendent, et à quel moment ont lieu ces ventes.

Savoir

Les informations peuvent être converties en savoir à propos de patterns historiques ou des tendances futures. Par exemple, l’information sur les ventes au détail d’un supermarché peut être analysée dans le cadre d’efforts promotionnels, pour acquérir un savoir au sujet des comportements d’acheteurs. Ainsi, un producteur ou un retailer peut déterminer quels produits doivent faire l’objet d’une promotion à l’aide du Data Mining.

Qu’est ce que un Data Warehouse ?

data mining warehouse

Les importantes avancées en termes de collecte de données, de puissance de calcul, de transmission de données, et de capacités de stockage permettent aux entreprises d’intégrer bases de données au sein de Data Warehouses. Le Data Warehousing est le procédé de centraliser la gestion et la recherche de données.

Grâce à une Data Warehouse, les entreprises peuvent diviser les données en segments d’utilisateurs précis, afin de les analyser en détail. Les analystes peuvent également commencer par le type de données qu’ils souhaitent utiliser puis créer une warehouse à partir de ces données.

Tout comme le Data Mining, le terme de Data Warehousing est relativement nouveau, tandis que le concept en lui-même existe depuis des années. Le Data Warehousing représente une vision idéale d’un répertoire central de données maintenu en permanence. Cette centralisation est nécessaire pour maximiser l’accès des utilisateurs et l’analyse.

Grâce aux grandes avancées technologiques, cette vision utopique est devenue une réalité pour beaucoup d’entreprises. De même, les avancées dans le domaine des logiciels analytiques permettent aux utilisateurs d’accéder librement aux données. C’est sur ces logiciels analytiques que repose le Data Mining.

Les méthodes de Data Mining

data mining visualisation

 

On dénombre cinq variétés du Data Mining :

  • Association – chercher des patterns au sein desquelles un événement est lié à un autre événement.
  • Analyse de séquence – chercher des patterns au sein desquelles un événement mène à un autre événement plus tardif.
  • Classification – chercher de nouvelles patterns, quitte à changer la façon dont les données sont organisées.
  • Clustering – trouver et documenter visuellement des groupes de faits précédemment inconnus.
  • Prédiction – découvrir des patterns de données pouvant mener à des prédictions raisonnables sur le futur. Ce type de data mining est aussi connu sous le nom d’analyse prédictive.

À quoi sert le Data Mining dans le marketing ? 

Le Data Mining est actuellement principalement utilisé par les entreprises focalisées sur les consommateurs, dans les secteurs du retail, de la finance, de la communication, ou du data mining marketing. Les techniques de Data Mining sont également utilisées dans différents secteurs de recherche, tels que les mathématiques, la cybernétique ou la génétique. Le Web Mining, utilisé dans le domaine de la gestion de relation client, vise à identifier des patterns de comportement des utilisateurs au sein des vastes quantités de données rassemblées par un site web.

data mining web

Grâce au Data Mining, les entreprises peuvent déterminer les relations entre les facteurs internes tels que les prix, le positionnement d’un produit, les compétences des employés et les facteurs externes comme les indicateurs économiques, la concurrence, ou les informations démographiques sur les consommateurs.

Elles peuvent ensuite déterminer l’impact de ces relations sur les ventes, la satisfaction des consommateurs, et les bénéfices de l’entreprise. Enfin, ces relations peuvent être converties en informations pour obtenir des détails sur les données transactionnelles.

Avec le Data Mining, un retailer peut utiliser les enregistrements des achats de clients en point de vente pour envoyer des promotions ciblées basées sur l’historique d’achat d’un individu. En minant les données démographiques sur les commentaires des cartes de garantie, le vendeur peut développer des produits et des promotions pour attirer certains segments de consommateurs.

Exemples concrets de l’utilisation du Data Mining

À titre d’exemple, une chaîne d’épiceries du Midwest s’est servie des logiciels de Data Mining d’Oracle pour analyser les modèles d’achats locaux. L’enseigne à découvert que, lorsque les hommes achètent des couches le jeudi et le samedi, ils ont également tendance à s’acheter des bières. Une analyse approfondie a également démontré que ces clients font habituellement leurs courses hebdomadaires le samedi. Le jeudi, ils se contentent d’acheter quelques articles seulement. La chaîne en a conclu que les clients achètent leurs bières pour qu’elles soient prêtes pour le weekend.

data mining biere

Cette nouvelle information découverte a pu être utilisée de différentes façons pour augmenter le chiffre d’affaires. Par exemple, le rayon bière a été déplacé plus près du rayon couches. De même, le retailer s’est assuré que les bières et les couches ne seraient plus soldées le jeudi.

Suggestions de produits

Par exemple, Blockbuster Entertainment mine sa base de données historique de location de vidéos pour recommander des films à des clients individuels. De même, American Express peut suggérer des produits à ses clients en se basant sur leurs dépenses mensuelles.

Relations fournisseurs

walmart data mining

Le géant WalMart se place en précurseur du Data Mining massif pour transformer ses relations avec les fournisseurs. WalMart collecte des données transactionnelles depuis 2900 boutiques dans 6 pays différents, et transmet ces données en continu vers sa Data Warehouse 7,5 terabyte fournie par Teradata. Plus de 3500 fournisseurs de WalMart peuvent accéder aux données relatives à leurs produits et effectuer des analyses de données. Ces fournisseurs utilisent les données pour identifier les patterns d’achat des clients à l’échelle du magasin. Ils utilisent l’information pour gérer les inventaires des magasins locaux et identifier de nouvelles opportunités. En 1995, les ordinateurs de WalMart ont traité près d’un million de requêtes de données complexes.

Analyse d’images

La National Basketball Association (NBA) explore une utilisation du Data Mining pouvant être utilisé en conjonction avec l’enregistrement d’images en provenance de matchs de basket. Le logiciel Advanced Scout permet d’analyser les mouvements des joueurs, pour aider leurs coaches à orchestrer des stratégies. Par exemple, une analyse du match entre les New York Knicks et les Cleveland Cavaliers le 6 janvier 1995 révèle que John Williams a marqué quatre paniers quand Mark Price était en défense. Cette pattern a pu être décelée par Advanced Scout, au même titre que la différence avec le pourcentage de précision moyen des Cavaliers pendant le match, élevé à 49,30%. En utilisant l’horloge universelle de la NBA, un coach peut automatiquement visionner les clips vidéo de chaque tir effectué par Williams quand Price était en défense, sans avoir à visionner des heures de capture vidéo.

data mining sport

Permettre aux consommateurs de contrôler leur empreinte numérique

À l’ère du numérique, des réseaux sociaux et du tout connecté, les marketers collectent en permanence et en temps réel des quantités massives de données. Les entreprises surveillent ce que les consommateurs postent, aiment, partagent sur les réseaux sociaux, les appareils qu’ils utilisent, les cartes de crédit avec lesquelles ils dépensent, les villes où ils sont situés. Pour cause, ces données permettent de promouvoir et de vendre des produits de façon personnalisée.

Désormais, de nombreuses firmes développent leur propre cloud marketing pour collecter des informations sur leur clientèle cible. Par conséquent, les entreprises et les gouvernements peuvent aisément utiliser les données personnelles pour leur business sans demander le consentement des usagers.data mining startup

Afin de remédier à ce problème, et de permettre aux consommateurs de contrôler leurs données, la startup Digi.me a été fondée en 2009. Cette startup fournit aux consommateurs des outils leur permettant de se réapproprier leur empreinte numérique, de collecter et de partager des informations directement avec les entreprises selon leurs propres conditions. Digi.me se place en leader de l’ « Internet of Me». Une fois que les utilisateurs prennent le contrôle de leurs données, elles ont la capacité d’en déterminer le prix et de dresser des barrières pour empêcher quiconque d’y accéder sans permission. Sans contrôle sur leurs données personnelles, les consommateurs sont tout bonnement exploités sans le savoir.

La technologie développée par Digi.me permet aux utilisateurs de télécharger leurs données et de les stocker sur internet. Les données sont nativement stockées sur un appareil individuel, et empêcher les tiers d’y accéder. La startup a levé 10,6 millions, dont 7 millions en 2016. Elle est également partenaire de Toshiba et Lenovo, et collabore avec les leaders des secteurs de l’assurance santé, de la finance et de l’industrie pharmaceutique.

Empêcher l’évasion fiscale avec le Data Mining

data mining ministre inde

En Inde, le gouvernement est décidé à utiliser le data mining pour empêcher l’évasion fiscale. En effet, l’Inde est profondément affectée par ce fléau. Pour y remédier, le département des taxes va utiliser la technologie pour faciliter le paiement des taxes pour les citoyens honnêtes, et pour compliquer la tâche aux malhonnêtes. On ignore pour l’instant de quelle façon le data mining sera utilisé, mais davantage de détails devraient être dévoilés dans les mois à venir.

Recruter les meilleurs employés

data mining gens

Les professionnels du recrutement utilisent de plus en plus les outils de data mining pour localiser et identifier les employés les plus intéressants pour leur entreprise. En Irlande par exemple, les entreprises collectent les données en ligne sur les candidats pour dénicher les meilleurs talents. Les données permettent par exemple de déterminer le niveau de productivité et de satisfaction d’un candidat. C’est la raison pour laquelle LinkedIn a choisi de construire un nouveau building pour étendre son hub Irlandais, faisant office de QG européen. 200 nouveaux employés ont été ajoutés à une équipe rassemblant déjà 1000 personnes.

Comment fonctionne le Data Mining ?

Les technologies informatiques ont évolué de manière à ce que les systèmes transactionnels et les systèmes analytiques soient séparés. Le Data Mining assure la jonction entre les deux. Les logiciels de Data Mining analysent les relations et les patterns des données de transactions stockées en se basant sur des requêtes d’utilisateurs. Plusieurs types de logiciels analytiques sont disponibles : statistiques, Machine Learning, et réseaux neuronaux. En général, on dénombre quatre types de relations :

  • Classes: Les données stockées sont utilisées pour localiser les données en groupes prédéterminés. Par exemple, une chaîne de restaurant peut miner les données d’achat des clients pour déterminer quand ont lieu les visites des clients et quelles sont leurs commandes habituelles. Cette information peut être utilisée pour augmenter le trafic en proposant des menus quotidiens.
  • Clusters: Les données sont regroupées par rapport à des relations logiques ou aux préférences des clients. Par exemple, les données peuvent être minées pour identifier des segments de marché ou des affinités de clients.
  • Associations: Les données peuvent être minées pour identifier des associations. L’exemple des couches et des bières cité plus haut est un exemple de minage associatif.
  • Patterns séquentielles: Les données sont minées pour anticiper les patterns de comportements et les tendances. Par exemple, un vendeur d’équipement extérieur peut prédire les probabilités qu’un sac à dos soit acheté en se basant sur les achats de sac de couchage et de chaussures de randonnée d’un client.

data-mining chaos ordre

Le Data Mining repose sur cinq éléments majeurs :

  • L’extraction, la transformation, et le chargement de données transactionnelles sur le système de Data Warehouse.
  • Le stockage et la gestion de données dans un système de base de données multidimensionnel.
  • Fournir l’accès aux données aux analystes de business et aux professionnels des technologies informatiques.
  • Analyser les données grâce à un logiciel applicatif.
  • Présenter les données sous un format utile, comme un graphique ou un tableau.

Différents niveaux d’analyse sont disponibles :

data mining reseau neuronal

  • Les réseaux de neurones artificiels: Des modèles prédictifs non linéaires qui apprennent par l’entraînement et s’apparentent à des réseaux neuronaux biologiques dans leur structure.
  • Algorithmes génétiques: Les techniques d’optimisation utilisent des procédés tels que la combinaison génétique, la mutation, et la sélection naturelle dans un design basé sur les concepts de l’évolution naturelle.
  • Les arbres décisionnels: Ces structures en forme d’arbres représentent des ensembles de décisions. Ces décisions génèrent des règles pour la classification d’un ensemble de données. Les méthodes spécifiques d’arbres décisionnels incluent les Arbres de Classification et Régression (CART), et les Chi Square Automatic Interaction Detection (CHAID). Ces deux méthodes sont utilisées pour la classification d’un ensemble de données. Elles fournissent un ensemble de règles pouvant être appliqués à un nouvel ensemble de données pour prédire quels enregistrements auront un résultat. Le CART segmente un ensemble de données en créant une division à deux issues, tandis que le CHAID segmente l’ensemble en utilisant des tests de chi square pour créer des issues à plusieurs voies. En général, CART requiert moins de préparation de données que CHAID.
  • La méthode du voisin le plus proche: Cette technique classifie chaque enregistrement d’un ensemble de données en se basant sur une combinaison des classes du k, similaire à un ensemble de données historique.
  • L’induction de règle: L’extraction de règles « si-alors » depuis les données, basées sur des signifiances statistiques. 
  • Data visualization: L’interprétation visuelle de relations complexes dans les données multidimensionnelles. Les outils graphiques sont utilisés pour illustrer les relations de données.

Le Data Mining Process en 5 étapes

Le processus de Data Mining se décompose en 5 étapes. En premier lieu, les entreprises collectent les données et les chargent dans les Data Warehouses. Par la suite, elles stockent et gèrent les données, sur des serveurs physiques ou sur le Cloud. Les Business analysts, les équipes de management et les professionnels de l’informatique accèdent à ces données et déterminent comment ils souhaitent les organiser. Puis, le logiciel applicatif permet de trier les données en se basant sur les résultats utilisateurs. Enfin, l’utilisateur final présente les données sous un format facile à partager comme un graphique ou un tableau.

Les 3 propriétés principales du Data Mining

On dénombre 3 propriétés principales du Data Mining Big Data :

  • La découverte automatique de patterns

Le Data Mining repose sur le développement de modèles. Un modèle utilise un algorithme pour agir sur un ensemble de données. La notion de découverte automatique se réfère à l’exécution de modèles de Data Mining. Les modèles de Data Mining peuvent être utilisés pour miner les données sur lesquelles ils sont bâtis, mais la plupart des types de modèles peuvent être généralisés à de nouvelles données. Le processus permettant d’appliquer un modèle à de nouvelles données est appelé scoring.

  • La prédiction de résultats probables

De nombreuses formes de Data Mining sont prédictives. Par exemple, un modèle peut prédire un résultat basé sur l’éducation et d’autres facteurs démographiques. Les prédictions ont une probabilité associée. Certaines formes de Data Mining prédictif génèrent des règles, qui sont les conditions pour obtenir un résultat. Par exemple, une règle peut spécifier qu’une personne dotée d’un bachelor et vivant dans un quartier précis a une probabilité d’avoir un meilleur salaire que la moyenne régionale.

  • La création d’informations exploitables

Le Data Mining permet de dégager des informations exploitables de larges volumes de données. Par exemple, un planificateur urbain peut utiliser un modèle pour prédire le revenu en se basant sur les données démographiques pour développer un plan pour les ménages à bas revenu. Une agence de location de voiture peut utiliser un modèle pour identifier des segments de consommateurs afin de créer une promotion ciblant les clients à forte valeur.

Quelle infrastructure technologique est requise ?

mineur de données data mining

Aujourd’hui, les applications de Data Mining sont disponibles dans toutes les tailles pour mainframe, serveur ou PC. Les prix des systèmes sont compris entre plusieurs milliers de dollars pour les plus petites applications et jusqu’à 1 million de dollars par terabyte pour les plus larges. Les applications d’entreprises sont généralement comprises entre 10 gigabytes et plus de 11 terabytes. NCR a la capacité de délivrer des applications de plus de 100 terabytes. Il existe deux principaux facteurs technologiques :

  • La taille de la base de données: Plus le nombre de données à traiter et à maintenir est important, plus un système puissant est requis.
  • La complexité des requêtes: Plus les requêtes sont complexes et nombreuses, plus un système puissant est requis.

Le stockage de bases de données relationnelles et les technologies de gestion sont adéquats pour beaucoup d’applications de data mining inférieures à 50 gigabytes. Cependant, cette infrastructure doit être largement augmentée pour prendre en charge des applications plus importantes. Certains vendeurs ont ajouté des capacités d’indexage plus importantes pour augmenter les performances de requêtes. D’autres utilisent de nouvelles architectures matérielles telles que les Massiely Parallel Processors (MPP) pour améliorer le temps de traitement des requêtes. Par exemple, les systèmes MPP de NCR lient des centaines de processeurs Pentium pour atteindre des niveaux de performance supérieurs aux meilleurs superordinateurs.

Les logiciels Data Mining

Les logiciels de Data Mining analysent les relations entre les données et repèrent des patterns en fonction des requêtes des utilisateurs. Par exemple, un logiciel peut être utilisé pour créer des classes d’information. Par exemple, un restaurant peut utiliser le Data Mining pour déterminer à quel moment proposer certaines offres. Il faudra alors chercher dans les informations collectées, et créer des classes en se basant sur les moments auxquels ont lieu les visites de clients et ce qu’ils commandent.

Dans d’autres cas, les Data Miners trouvent des clusters d’informations en sa basant sur des relations logiques, ou bien ils cherchent des associations et des patterns séquentielles pour tirer des conclusions sur le comportement des utilisateurs. Pour tenter l’aventure, des logiciels de Data Mining existent. Orange, Weka, RapidMiner ou Tanagra sont quelques uns des outils open source disponibles sur le Web. Des licences professionnels pour le Data Mining 19 sont également disponibles. Parmi les plus célèbres d’entre elles, SPSS distribué par IBM, Entreprise Miner de SAS,  ou encore Microsoft Analysis Services de la firme de Redmond.

Des cours de Data Mining

De nombreuses universités consacrés aux sciences informatiques et mathématiques explorent cette technique de probabilité. Les cours de Data mining et les moocs sont facilement disponibles sur le Web afin de comprendre et explorer plus en détails les possibilités de cette science associée au Big Data. Il y a de nombreux cours de Data Mining en PDF que vous pouvez télécharger. Attention, le niveau varie suivant le type d’enseignement. Pour notre part, nous vous recommandons les travaux de Stéphane Tufféry, Président du Comité Scientifique du CESP de l’université Rennes 1. Spécialisé dans ce domaine,  il a même écrit un ouvrage à ce sujet.

Cet article Data Mining : qu’est ce que l’exploration de données ? a été publié sur LeBigData.fr.

]]>
Oracle pense gagner la guerre du cloud face à Amazon, Microsoft et Google https://www.lebigdata.fr/oracle-guerre-cloud-0610 Fri, 06 Oct 2017 13:19:32 +0000 https://www.lebigdata.fr/?p=5203 Dans le cadre de la conférence OpenWorld, qui s’est déroulée le 3 octobre 2017 à San Francisco, Californie, le CEO …

Cet article Oracle pense gagner la guerre du cloud face à Amazon, Microsoft et Google a été publié sur LeBigData.fr.

]]>
Dans le cadre de la conférence OpenWorld, qui s’est déroulée le 3 octobre 2017 à San Francisco, Californie, le CEO d’Oracle, Mark Hurd, a exprimé sa volonté de devenir leader mondial sur le marché du cloud. Ambitieux, le chef d’entreprise compte surpasser Google, IBM, Microsoft et Amazon dans ce domaine, sans toutefois fixer de date pour parvenir à ses fins. 

A l’heure actuelle, Oracle détient une part limité du marché des infrastructures cloud. Ce marché est principalement dominé par Amazon Web Services. Cependant, le CEO de la firme, Mark Hurd, est persuadé de pouvoir gagner la guerre du cloud sur le long terme. Le chef d’entreprise pense pouvoir triompher de n’importe quel adversaire, y comprise Amazon, Microsoft et Google.

Oracle : avec moins de 5% de parts du marché du cloud, Mark Hurd espère devenir numéro 1

Les chiffres ne semblent pourtant pas à son avantage. Selon les analyses du Synergy Research Group, Oracle ne fait même pas partie du top 4 des leaders du marché. Les quatre premières places du classement sont occupées dans l’ordre par Amazon, Microsoft, IBM et Google. Amazon accapare 34% de parts du marché, et Google se contente de 5%. Cela signifie qu’Oracle ne détient même pas 5% de parts du marché.

Depuis quelques années, le marché du cloud public est devenu si compétitif que certaines entreprises comme Hewlett Packard Enterprise et VMWare ont préféré abandonner leurs clouds et se retirer de la course. De son côté, Oracle n’a pas l’intention de jeter l’éponge, même si Hurd ne sait pas encore combien de temps sera nécessaire pour atteindre le sommet. Selon ses propres dires, peu importe que cette ascension prenne six mois, un an ou une décennie, car la firme pense sur le long terme. Aux yeux du CEO, l’important est d’atteindre l’objectif, et de progresser chaque jour pour y parvenir.

Ce n’est pas la première fois qu’Oracle fait preuve d’ambition. Le fondateur de la firme, Larry Ellison, a souvent répété que le cloud d’Oracle était plus performant que celui de Salesforce ou Workday, en dépit de résultats qui semblent prouver le contraire.

Oracle cherche à générer 10 milliards de dollars en un an grâce au cloud

La firme cherche désormais à atteindre un revenu de 10 milliards de dollars en un an grâce à sa plateforme cloud et à ses services d’infrastructure. Au cours du précédent trimestre, le cloud a rapporté 400 millions de dollars à l’entreprise, ce qui représente une hausse de 28% en un an. Toutefois, les 4,1 milliards de dollars générés au second trimestre de 2017 par AWS, avec une progression de 42%, font relativiser sur cette croissance.

Malgré ces ambitions non dissimulées sur le marché du cloud, Oracle ne compte pas abandonner ses logiciels qui fonctionnent sur des data centers internes. Les utilisateurs n’ont donc pas besoin de se précipiter vers le cloud. Cependant, il est clair que les logiciels internes rapportent de moins en moins. En 2017, Oracle a ainsi générés des revenus inférieurs à ceux de 2015. Le chemin de la croissance passe désormais obligatoirement par le cloud.

 

Cet article Oracle pense gagner la guerre du cloud face à Amazon, Microsoft et Google a été publié sur LeBigData.fr.

]]>
SaaS Définition : Qu’est-ce que c’est ? Quels avantages ? https://www.lebigdata.fr/definition-saas Mon, 02 Oct 2017 18:26:25 +0000 https://www.lebigdata.fr/?p=2964 Le SaaS, ou Logiciel en tant que Service, est un modèle de distribution de logiciel à travers le Cloud. Les …

Cet article SaaS Définition : Qu’est-ce que c’est ? Quels avantages ? a été publié sur LeBigData.fr.

]]>
Le SaaS, ou Logiciel en tant que Service, est un modèle de distribution de logiciel à travers le Cloud. Les applications sont hébergées par le fournisseur de service. Découvrez les avantages et les inconvénients de ce modèle. 

Qu’est-ce que le SaaS ?

saas-cloud

Le Software as a Service (SaaS), ou Logiciel en tant que Service en Français, est un modèle de distribution de logiciel au sein duquel un fournisseur tiers héberge les applications et les rend disponibles pour ses clients par l’intermédiaire d’internet. C”est l’une des quatre catégories principales de Cloud Computing, au même titre que l’Infrastructure en tant que service (IaaS)la Plateforme en tant que Service (PaaS), et le Desktop en tant que Service (DaaS). Parmi les principaux fournisseurs d’un logiciel SaaS, on retrouve Salesforce, Oracle, IBM, Intuit ou encore Microsoft.

Quels sont les avantages du SaaS ?

Grâce à un logiciel SaaS, les entreprises n’ont plus besoin d’installer et de lancer des applications sur leurs propres ordinateurs ou sur leurs Data Centers. Le coût d’acquisition de matériel est ainsi éliminé, au même titre que les coûts d’approvisionnement et de maintenance, de licence de logiciel, d’installation et de support. On compte également plusieurs autres avantages.

Au lieu d’investir dans un logiciel à installer, et dans un équipement permettant de le prendre en charge, les utilisateurs souscrivent à une offre SaaS. En général, l’offre se présente sous la forme d’un abonnement mensuel dont le tarif est proportionnel à l’utilisation. Grâce à cette flexibilité, les entreprises peuvent organiser leur budget avec plus de précision et de facilité. De plus, il est possible de résilier l’abonnement à tout moment pour couper court aux dépenses.

Un autre avantage est la haute scalabilité. En fonction de ses besoins, l’utilisateur peut accéder à plus ou moins de services et à des fonctionnalités à la demande. Le Logiciel en tant que Service est donc adapté aux besoins propres à chaque business.

De même, plutôt que de devoir acheter régulièrement de nouveaux logiciels, les utilisateurs peuvent compter sur le fournisseur SaaS pour effectuer des mises à jour automatiquement et gérer l’ajout de patchs correctifs. L’entreprise a donc moins besoin d’une équipe d’informaticiens internes.

Enfin, étant donné que les applications SaaS sont délivrées via internet, les utilisateurs peuvent y accéder depuis n’importe quel appareil connecté et n’importe quelle position géographique. L’accessibilité est l’un des grands points forts de ce modèle.

Par ailleurs, une application SaaS peut être utilisée par des milliers, voire des millions d’utilisateurs finaux simultanément puisqu’elle est stockée sur le Cloud.

Quels sont les inconvénients du SaaS ?

saas-7

Cependant, le SaaS présente également des inconvénients potentiels. Les entreprises doivent compter sur des vendeurs externes pour fournir des logiciels, maintenir ces logiciels, proposer une facturation détaillée et garantir un environnement sécurisé pour les données de l’entreprise. En cas d’interruption du service, de changements de l’offre, de faille de sécurité ou tout problème, les conséquences pour le client peuvent être dramatiques. Pour éviter de tels désagréments, il est nécessaire pour les entreprises d’analyser soigneusement les conditions du service proposé par le fournisseur.

Comment fonctionne le SaaS ?

saas-5

Le SaaS est étroitement lié aux modèles de livraison de service de logiciel ASP (application service provider) et informatique à la demande. Le modèle de gestion d’ application SaaS hébergé est similaire à l’ASP. Dans les deux cas, le fournisseur héberge le logiciel du client et le délivre aux utilisateurs finaux via internet.

Avec le modèle de Logiciel à la Demande, le fournisseur offre aux clients un accès basé sur le réseau à une simple copie d’une application spécifiquement créée par le fournisseur pour la distribution Software as a Service. Le code source de l’application est le même pour tous les clients. Quand de nouvelles fonctionnalités sont déployées, tous les clients peuvent en profiter.

En fonction du niveau de service, les données du client peuvent être stockées localement, sur le Cloud, ou les deux à la fois. Les entreprises peuvent intégrer des applications à d’autres logiciels en utilisant des API. Par exemple, une entreprise peut développer ses propres outils logiciels et utiliser l’API du fournisseur de service pour intégrer ces outils à l’offre.

Quelles sont les applications du SaaS ?

On dénombre des applications SaaS pour les technologies fondamentales des entreprises, comme les emails, la gestion de ventes, la gestion de relations client (CRM), la gestion de finances, la gestion des ressources humaines, la facturation et la collaboration. Il ne faut pas oublier l’apparition de ce modèle d’ application SaaS dans le jeu vidéo (Gaming as a service) et surtout dans l’Internet des Objets qui se base sur cette infrastructure logicielle afin d’organiser les données récoltées depuis des milliers de capteurs.

Pourquoi le SaaS est désormais accessible à tous ?

En 10 ans, le marché du SaaS a beaucoup évolué. Au commencement, personne n’était vraiment certain de la pertinence de ce modèle. Nul n’était sûr que les entreprises accepteraient de payer un abonnement pour accéder à un logiciel, et les banques avaient peur des risques.

Désormais, ce manque de certitudes a totalement disparu. De même, les prix ont baissé et la mise en place est beaucoup plus facile. Cependant, il est toujours nécessaire de proposer des logiciels de qualité à un prix raisonnable pour se démarquer sur le marché des SaaS.

Comment les SaaS changent le travail des équipes informatiques dans les entreprises ?

Selon les professionnels de l’informatique, les Software as a Service changent leur travail au sein de l’entreprise. On pourrait penser que l’externalisation des applications leur rend la tâche bien plus facile. Toutefois, même si les applications hébergées n’ont pas besoin d’autant d’attention, le travail d’intégration reste conséquent. De plus, les entreprises tendent à adopter davantage d’applications lorsqu’elles se tournent vers les SaaS, ce qui augmente la charge de travail d’intégration. En outre, si l’application hébergée sur le cloud rencontre un problème, c’est à l’informaticien de prendre le relais.

Face à l’essor des SaaS, les professionnels IT doivent songer à la façon dont leur métier s’en trouve transformé. Les logiciels on-premise sont de moins en moins adoptés, contrairement aux SaaS. Heureusement, alors que les bénéfices sont nombreux, l’impact sur les équipes informatiques est minime.

SaaS ou IaaS, quelle est la meilleure option ?

Les IaaS (infrastructures en tant que service) sont souvent le premier choix des entreprises qui souhaitent déplacer les données de leur data center vers le cloud. Dans la pratique toutefois, les SaaS peuvent se révéler plus avantageuses. Les logiciels en tant que service sont très utiles pour les applications qui n’offrent pas d’avantage compétitif, et ces solutions sont de plus en plus nombreuses sur le marché. En utilisant les SaaS pour certaines applications, l’entreprise peut économiser des ressources informatiques, et se débarrasser des contraintes de maintenance.

Bien entendu, le choix entre IaaS et SaaS dépend de l’activité principale de l’entreprise. Le dernier modèle cité est utile pour les firmes qui souhaitent déléguer des workloads à un vendeur, surtout si elles n’ont pas d’employés qualifiés en interne. De même, si une entreprise souhaite simplement utiliser une application sans y apporter de changement, elle peut se contenter de l’installer sur son infrastructure cloud. Si toutefois elle souhaite la mettre à jour ou la modifier, les SaaS peuvent être une solution plus adaptée pour éviter d’avoir à réécrire tout le code.

La migration d’applications vers le cloud, délaissée depuis quelque temps, revient en force pour les entreprises qui souhaitent externaliser des applications difficile à gérer et à maintenir comme SAP et Oracle. Les IaaS étaient initialement le choix le plus populaire, mais nécessitent la présence de professionnels capables de gérer les serveurs, de choisir les systèmes d’exploitation, de charger les applications, de gérer la sécurité et d’effectuer les mises à jour. Le SaaS est donc plus adapté pour certaines entreprises.

Plusieurs applications SaaS comme Salesforce, Gmail et Office 365 sont si couramment utilisées que les entreprises sont en confiance et n’ont plus de réelle raison de ne pas s’en remettre à elles. De même ce marché est devenu si robuste que les vendeurs d’applications qui n’ont pas de stratégie dans ce domaine peinent à décoller. Ainsi, même si le marché des IaaS semble destiné à une forte croissance, il serait faux de penser que ce marché est en passe d’être relégué au second plan.

Prévisions et tendances du marché des SaaS pour 2017

Selon Gartner, le marché du cloud public devrait progresser de 18% en 2017 pour atteindre une valeur totale de 246,8 milliards de dollars. De son côté, IDC prédit que les dépenses totales en services et infrastructures atteindrait 122,5 milliards de dollars d’ici la fin de l’année. Dans sept des huit principaux marchés géographiques, le taux de croissance annuel devrait dépasser les 20% dans les cinq années à venir. Pour l’instant c’est Microsoft qui domine le marché avec un revenu de 13 milliards de dollars à la fin du quatrième trimestre 2016.

Mis à part le cloud advertising, le plus large marché du cloud public devrait être celui de la plateforme SaaS en 2017. Ce dernier dépasser les BPaaS (business process as a service à partir de cette année. D’ici 2020, le marché des SaaS devrait atteindre 75,7 milliards de dollars, contre 71,5 milliards de dollars pour les IaaS et 56,1 milliards de dollars pour les PaaS. Au total, le marché du cloud atteindre donc 383,3 milliards de dollars.

La croissance sera stimulée par les progrès de l’intelligence artificielle, des technologies analytiques et de l’Internet des Objets. De même, la croissance des PaaS alimentera celle des IaaS. L’Amérique du Nord reste le principal marché, et plus de la moitié des applications adoptées sur le continent seront issues d’une solution SaaS. La Chine devrait également connaître une forte croissance dans ce domaine, dans la continuité de la transition numérique qui s’opère sur place depuis 5 ans.

5 raisons pour lesquelles votre entreprise doit passer au SaaS en 2017

saas 2017

En 2017, passer au SaaS est un investissement très rentable pour les entreprises pour plusieurs raisons. Tout d’abord, les logiciels en tant que service permettent de réduire les coûts. Ils sont généralement moins chers que les systèmes on-premise, puisque l’entreprise n’a besoin d’implémenter que les logiciels nécessaires et peut ensuite y accéder par le biais d’une simple connexion internet.

Par ailleurs, les Softwares as a Service  suppriment les besoins en maintenance et en réparation. Les services cloud offrent des options de backups, et les éventuelles pannes de service ont un impact minime car les fournisseurs de services ont davantage de personnel que la plupart des entreprises, et peuvent donc remédier rapidement aux problèmes. La restauration et les sauvegardes de données sont prises en charge au sein de data centers.

Ils permettent également de gagner de l’espace. Les solutions on-premise nécessitent de la place pour les serveurs, le matériel informatique et le personnel, sans parler des câbles et de la ventilation. Au contraire, ils ne nécessitent aucun espace physique supplémentaire. La sécurité des serveurs quant à elle est laissée entre les mains des vendeurs.

En outre, les mises à jour sont gérées par les fournisseurs de service, ce qui permet de s’assurer que les logiciels sont toujours à jour. Certains logiciels on-site peuvent être personnalisés, mais ces personnalisations sont généralement liées à la version du logiciel actuellement déployée.

Enfin, la plateforme Saas permet de réduire considérablement les temps de déploiement par rapport aux systèmes on-premise. Un système cloud peut être déployé dans plusieurs régions, au sein de diverses divisions de l’entreprise, et d’éviter les coûts liés à ces déploiements. Aucun matériel additionnel n’est nécessaire. Ainsi, les entreprises n’ont pas besoin de perdre de temps  se procurer une infrastructure informatique et un accès VPN sur différents sites.

Cet article SaaS Définition : Qu’est-ce que c’est ? Quels avantages ? a été publié sur LeBigData.fr.

]]>
Snowflake : la startup de data warehouse cloud lève 100 millions $ https://www.lebigdata.fr/snowflake-leve-100-millions-dollars-0604 Thu, 06 Apr 2017 10:01:19 +0000 https://www.lebigdata.fr/?p=4051 La startup californienne Snowflake Computing, spécialisée dans le data warehouse cloud, vient de lever 100 millions de dollars dans le cadre d’une …

Cet article Snowflake : la startup de data warehouse cloud lève 100 millions $ a été publié sur LeBigData.fr.

]]>
La startup californienne Snowflake Computing, spécialisée dans le data warehouse cloud, vient de lever 100 millions de dollars dans le cadre d’une levée de fonds menée par ICONIQ Capital. Le Madrona Venture Group de Seattle se joint également au conseil d’administration en tant que nouvel investisseur.

Grâce à cette levée de fonds d’envergure, Snowflake va pouvoir étendre son data warehouse en tant que service à l’internationale, poursuivre le développement de sa technologie et augmenter l’effectif de son équipe d’ingénieurs en se focalisant sur le développement de ses nouvelles opérations à Bellevue, Washington.

Snowflake, une startup de data warehouse cloud à la croissance folle

Selon le CEO de Snowflake, Bob Muglia, la startup connaît une croissance folle. C’est la raison pour laquelle l’heure est venue pour la firme de s’étendre. Cette levée de fonds démontre le vif intérêt des investisseurs pour les technologies d’entreprise développées nativement sur le cloud.

Ces 100 millions de dollars supplémentaires pour le financement total de la startup à 205 millions de dollars. Les précédents investisseurs, Altimeter Capitals, Redpoint Ventures, Sutter Hill Ventures et Wing Ventures ont également participé à cette levée de fonds de série D.

La participation de Madrona en tant que nouvel investisseur représente une réunion entre Muglia et S. Soma Somasgar, le managing director de Madrena qui a travaillé avec Muglia pendant de nombreuses années au sein de Microsoft. Somasegar dirigeait la division développeur de Microsoft, tandis que Muglia était président de la branche Serveur & Tools.

Madrona séduit par Snowflake pour de nombreuses raisons

D’ordinaire, Madrona investit plus tôt dans les startups qui l’intéressent. Toutefois, selon Somasegar, cet investissement est très stratégique pour la firme, pour plusieurs raisons. Tout d’abord, le groupe s’intéresse particulièrement aux startups entièrement dédiées à des activités sur le cloud. Pour cause, le nuage représente un immense marché en forte croissance à l’internationale.

La confiance en Muglia et en les dirigeants de Snowflake a également motivé la décision de Madrona. Snowflake a été fondée en 2012 par les vétérans d’Oracle Benoit Dageville and Thierry Cruanes, et par  Marcin Zukowskin inventeur d’un système d’exécution de requête vectoriel au sein de bases de données. Le directeur de l’ingénierie, Sameet Agrawal, a également passé de nombreuses années comme directeur du SQL Server Relational Database Engine chez Microsoft. Par ailleurs, le nouveau bureau de Snowflake situé à Bellevue permettra à Madrona de fournir une valeur ajoutée à l’entreprise compte tenu de sa présente dans la région de Seattle.

Même si le cloud data warehouse de Snowflake fonctionne sur AWS, il se place en concurrent du data warehouse Redshift d’Amazon. Cette situation n’est cependant pas extraordinaire dans le monde moderne du cloud. Dans une publication au sujet de sa participation à la levée de fonds, Madrona cite un rapport de GigaOm selon lequel Snowflake est l’une des meilleures bases de données analytiques cloud devant Google BigQuery, Teradata, Azure Data Warehouse et AWS Redshift.

Le futur s’annonce radieux pour Snowflake

Selon Muglia, ce nouveau financement permettra à l’entreprise d’étendre ses ventes, de recruter plus d’employés aux USA, tout en couvrant de nouvelles régions comme l’Europe et l’Asie. Snowflake a déjà des vendeurs à Londres et prévoit de s’étendre en Europe dès cette année.

À Bellevue, l’entreprise a formé une équipe de quatre ingénieurs et un manager de produit. Par la suite, elle compte avoir un total de 10 à 15 ingénieurs dès cette année, et jusqu’à 50 ou 100 ingénieurs sur le long terme.

Cet article Snowflake : la startup de data warehouse cloud lève 100 millions $ a été publié sur LeBigData.fr.

]]>
RH et Big Data : l’analyse de données au service des ressources humaines https://www.lebigdata.fr/rh-et-big-data Fri, 03 Mar 2017 11:01:48 +0000 https://www.lebigdata.fr/?p=3798 En 2017, RH et Big Data font bon ménage. Grâce aux technologies analytiques, les départements des ressources humaines peuvent optimiser …

Cet article RH et Big Data : l’analyse de données au service des ressources humaines a été publié sur LeBigData.fr.

]]>
En 2017, RH et Big Data font bon ménage. Grâce aux technologies analytiques, les départements des ressources humaines peuvent optimiser les recrutements, comprendre comment retenir les talents dans l’entreprise, et permettre à l’ensemble de l’entreprise de se développer.

Les entreprises recherchent constamment de nouvelles façons d’utiliser les technologies analytiques. Le département des ressources humaines compte parmi les secteurs d’application les plus pertinents pour le Big Data. Selon une étude menée par Towers Watson, les entreprises dépensent une grande partie de leur budget dédié aux technologies RH dans les logiciels Big Data pour améliorer le processus de recrutement, pour mieux retenir leurs employés, et pour prendre de meilleures décisions.

Malheureusement, de nombreuses entreprises peinent à obtenir les données nécessaires. Ceux qui détiennent ces données, quant à eux, ne savent pas toujours comment les utiliser. Voici comment les entreprises peuvent utiliser RH et Big Data de façon stratégique et intelligente.

Accéder au Big Data

La première étape consiste à obtenir le volume nécessaire de données pour en dégager des informations pertinentes. Il convient ensuite de naviguer parmi les innombrables candidatures et autres profils pour obtenir les données permettant de prendre des décisions utiles pour l’entreprise.

Grâce aux nouvelles technologies, rassembler ces informations est plus simple qu’auparavant. Les logiciels d’acquisition de talent permettent aux départements RH de rassembler des informations sur les candidats afin de mesurer les performances et le retour sur investissement. Ces informations peuvent ensuite être partagées avec le reste de l’entreprise. Ainsi, la firme sera plus apte à recruter et retenir les meilleurs talents tout en réduisant ses coûts d’exploitation.

Réduire les coûts et les délais

En moyenne, pour chaque poste à pourvoir, une entreprise reçoit 250 candidatures. Plutôt que de demander à un membre de l’équipe RH de passer du temps pour étudier chaque candidature, le Big Data accumulé par les logiciels d’acquisition de talent permet à l’entreprise d’identifier instantanément le bon candidat. Par exemple, certains mots-clés ou talents indiqués dans une candidature peuvent être repérés par le logiciel. Si ces compétences se sont avérées utiles lors des précédents recrutements, le logiciel les cherchera en priorité. De plus, les données d’évaluation de candidatures ou d’entretien peuvent aider les membres de l’équipe RH à se mettre d’accord plus rapidement.

Les technologies analytiques permettent également aux entreprises de trouver et de recruter les bons candidats plus tôt en accédant aux sources dont proviennent les meilleurs talents. Le Big Data et les technologies analytiques permettent aux entreprises d’améliorer la qualité de leurs candidats tout en réduisant les coûts. Bien utilisées, les données permettent également de réduire le turnover grâce à des recrutements solides et d’atteindre les objectifs plus rapidement en recrutant moins d’employés. RH et Big Data permettent bel et bien d’optimiser les recrutements.

Prédire les besoins futurs

Une fois que les départements RH ont rassemblé les données nécessaires pour commencer à identifier des tendances, les informations peuvent être utilisées pour prédire les besoins futurs en termes de recrutement. Certaines tendances peuvent être identifiées très tôt dans le processus de collecte de données. Par exemple, si les données d’un logiciel d’acquisition de talent d’une entreprise tech montrent qu’il faut en moyenne deux mois pour finaliser le recrutement d’un développeur, et que la roadmap d’un produit laisse présager que l’entreprise aura besoin d’un tel talent dans trois ou quatre mois, il est possible de planifier le recrutement à temps. De cette façon, les entreprises auront une réserve de candidats qui ont déjà été passés en revue et interviewés lorsque le temps vient de procéder au recrutement.

Le Big Data aide les entreprises à mieux gérer leurs phases de recrutement. Il est par exemple plus simple de calculer combien de candidats doivent être interviewés pour des postes à pourvoir. Ceci permettra de s’assurer que l’entreprise ait suffisamment d’employés pour satisfaire les clients de façon proactive.

Retenir les talents

Le turnover des employés représente une dépense majeure pour toutes les entreprises. Chaque fois qu’un employé quitte l’entreprise, il est nécessaire de recruter, d’embaucher et de former un nouvel employé. Cette démarche coûte de l’argent, prend du temps, et consomme des ressources. Les entreprises perdent l’investissement effectué dans le recrutement de l’employé qui s’en va, et l’opportunité qu’elles auraient eue d’en recruter un autre à la place.

Pour remédier à ce problème, les départements RH peuvent utiliser le Big Data pour retenir les employés et éviter les pertes en rassemblant des informations sur ce qui retient les employés dans l’entreprise, et sur les raisons pour lesquelles certains choisissent de partir. Pour ce faire, il est nécessaire de sonder régulièrement les employés sur leurs priorités. Certaines firmes seront très certainement surprises par les réponses fournies. D’après une étude menée en 2016 par Yello Recruiting, l’évolution de carrière, et les opportunités de formations, sont plus importants que l’argent pour une majorité des employés, particulièrement pour les millenials.

En menant de tels sondages, les employeurs peuvent ajuster leur stratégie pour répondre aux besoins et aux désirs des employés. Par exemple, il est possible d’ajouter davantage de perspectives d’évolution ou de proposer des options de mentoring supplémentaires. Ces sondages n’ont pas besoin d’être un projet majeur. Il peut s’agir d’un simple questionnaire transmis par mail. En utilisant le big data pour évaluer la satisfaction des employés, les départements RH peuvent exploiter les données concernent le ressenti des employés pour améliorer l’entreprise et augmenter le taux de rétention. De telles informations peuvent aussi être utilisées pour identifier les employés les plus susceptibles de quitter l’entreprise et déterminer les moyens de les retenir.

Au cours des dernières années, la plupart des processus de recherche d’emploi et de dépôt de candidature sont devenus numériques, et centrés sur les données. Selon un récent rapport de Pew Research Center, 79 des demandeurs d’emploi américains qui ont cherché un travail au cours des deux dernières années ont utilisé internet. Les candidatures en ligne augmentent de façon significative la charge de travail et la quantité de données à traiter par les départements RH, mais cette nouvelle ère numérique permet également d’utiliser le Big Data pour recruter plus efficacement, et retenir les employés plus longtemps. L’accès à ces données par les départements RH permet de réduire le délai et les coûts de recrutement, de prédire les besoins futurs, de retenir les talents, et d’aider l’entreprise dans sa globalité.

Six façons d’utiliser le Big Data dans le domaine des ressources humaines

Découvrir et développer les facteurs d’engagement

Tous les employeurs cherchent à augmenter l’engagement de leurs employés. Ces derniers sont dirigés par des facteurs qui augmentent ou réduisent leur engagement à l’égard de leur travail. Le défi est de savoir lesquels de ces facteurs importent et comment les influencer. Utiliser le potentiel RH et Big Data, en effectuant des sondages trimestriels, peut fournir la clarté nécessaire pour savoir sur quels facteurs d’engagement se focaliser.

Prédire les futurs succès

Le Big Data permet d’augmenter la qualité des recrutements, mais la technologie ne remplacera jamais l’aspect humain des RH. Les tests cognitifs et les tests de personnalité permettent d’ajouter des données quantitatives au processus d’entretien. En traquant les données communes aux différentes embauches, il est possible de prendre de meilleures décisions au fil du temps et de réduire les risques.

Utiliser les indicateurs de performance

La gestion de main d’œuvre peut être facilitée par l’utilisation de données que de nombreuses entreprises collectent déjà. Les indicateurs de performance permettent de déterminer la productivité que chaque employé devrait déployer. En associant cette information aux objectifs de l’entreprise, il est possible de prédire avec précision les éléments nécessaires dans chaque département, et d’identifier les employés les plus performants ainsi que les opportunités au sein de la main d’œuvre.

Aider les employés

Les équipes RH doivent continuer à penser à des façons dont la technologie peut aider leurs travailleurs. Qu’il s’agisse de technologie de recrutement, de performance, ou de bien-être, chacune donnera aux professionnels des RH des données pertinentes sur leurs employés. Ces informations doivent être partagées avec les dirigeants et les employés de l’entreprise pour qu’ils comprennent les tendances.

Utiliser les données pour planifier

Les RH doivent utiliser les données en provenance des nombreux KPI spécifiques à ce domaine pour déterminer les meilleures sources de talent, et les meilleurs programmes pour garder ces talents. Il peut s’agir d’un benchmarking des employés les plus performants, ou d’analyser les sondages pour comprendre les clés de la rétention de talents. Assurez-vous que votre équipe RH est en mesure d’analyser les données disponibles au sein de l’entreprise pour planifier, et pas seulement pour l’analyse.

Introduire la visibilité au sein de la main d’œuvre

La technologie a pour rôle de permettre à l’humanité d’avancer. Les entreprises qui exploitent la technologie pour introduire la visibilité au sein de la main d’œuvre comprennent les compétences des employés, et fournissent aux managers des informations sur ce dont les employés ont besoin pour réussir, augmentent l’efficience et introduisent une part d’humanité en aidant les personnes à exploiter tout leur potentiel. RH et Big Data rendent l’entreprise plus humaine.

RH et Big Data : 6 tendances pour 2017

Selon un rapport publié par Oxford Economics, la plupart des départements RH disposent de technologies analytiques, mais ne savent pas comment s’en servir de façon pertinente. Toutefois, de nouveaux outils se développent à mesure que la capacité à analyser et interpréter le Big Data murit. La technologie ne remplacera jamais les professionnels qualifiés des RH, mais peut permettre de valider des décisions. Voici les tendances 2017 dans le domaine des RH et Big Data.

La disparition des Vanity Metrics

Les Vanity Metrics, ces statistiques qui semblent intéressantes mais n’offrent que de légères informations, disparaissent peu à peu. Dans le domaine des ensembles de données, la qualité trompe souvent la quantité, et l’utilisation de mesures importe bien plus qu’auparavant. Alors que les entreprises attirent toujours plus d’analystes de données et forment les employés à l’usage des programmes analytiques, les équipes se focalisent désormais sur un usage stratégique des données, sur la façon de les collecter et sur la nature des données collectées.

Les outils d’analyse prédictive deviennent plus intelligents

Les analyses prédictives peuvent être un outil puissant pour l’entreprise dans son ensemble, et les programmes disponibles s’améliorent fortement depuis les derniers mois. Les outils d’analyses prédictives peuvent fournir des informations sur les employés, les promotions, et la gestion de talent, mais peuvent aussi servir pour des prédictions plus profondes. Ils peuvent par exemple aider à mesurer l’efficacité des formations ou à identifier quels employés sont plus enclins à atteindre leurs objectifs, et pour quelle raison.

Les outils analytiques deviennent plus simples et plus abordables

Jusqu’à présent, de nombreuses entreprises n’avaient tout simplement pas les moyens d’investir dans une suite complète d’outils analytiques. D’autres estimaient tout simplement que ces applications ne leur permettaient tout simplement pas d’accéder aux informations recherchées. Toutefois, de nouvelles options se dressent à l’horizon. Des entreprises comme Dell et Oracle se sont jointes au mouvement HR Open Source, visant à proposer une approche open source pour les ressources humaines et le recrutement. D’autres options permettront d’alimenter l’usage des outils analytiques au sein d’entreprises de toute envergure.

Il est maintenant possible d’accorder de la valeur au capital humain

Les entreprises affirment souvent que le capital humain est l’un des principaux atouts d’une entreprise, mais peinent à traduire cette affirmation par des données concrètes. Grâce aux outils analytiques, les entreprises peuvent assigner une valeur financière aux tâches individuelles et de mieux comprendre l’impact financier sur chaque personne de l’entreprise. Les conséquences sur le recrutement, les bénéfices et la rétention de talent sont directes. RH et Big Data permettent d’estimer la valeur du capital humain.

Les capteurs offrent une nouvelle perspective

Les systèmes de monitoring interne, les plateformes d’écoute en ligne, et l’Internet des Objets sont de nouvelles façons de collecter des données. Dans les industries comme la construction et l’agriculture, les données générées par des capteurs peuvent fournir des informations sur les performances des machines ou la production. Elles peuvent également être utilisées dans le domaine des RH. Par exemple, Honeywell et Intel ont récemment présenté des prototypes de capteurs permettant de surveiller la sécurité de l’employé. Si les départements RH peuvent identifier des signes alarmants ou d’autres signaux en temps réel, ils peuvent trouver de nouvelles façons d’améliorer la sécurité. RH et Big Data permettent donc d’augmenter la sécurité des employés.

Les analystes de données sont très demandés

Selon CNBC, le métier d’analyste de données est le job le plus sexy du 21ème siècle. Les data analysts suffisamment compétents pour comprendre comment extraire des données et produire des rapports utiles sont relativement peu nombreux. Par conséquent, les entreprises doivent se montrer créatives pour trouver le talent nécessaire pour répondre à leurs besoins analytiques.

Ensemble, RH et Big Data offrent de nombreuses opportunités pour les entreprises de toutes les industries. Les départements doivent tout simplement saisir ces opportunités pour favoriser la croissance de leur firme.

Cet article RH et Big Data : l’analyse de données au service des ressources humaines a été publié sur LeBigData.fr.

]]>
Einstein : l’IA de Salesforce au service du CRM https://www.lebigdata.fr/einstein-ia-salesforce-crm-2009 https://www.lebigdata.fr/einstein-ia-salesforce-crm-2009#comments Tue, 20 Sep 2016 11:38:39 +0000 https://www.lebigdata.fr/?p=2268 Le vendeur cloud Salesforce présente Einstein, une intelligence artificielle permettant d’améliorer la gestion des relations clients des entreprises. Grâce aux …

Cet article Einstein : l’IA de Salesforce au service du CRM a été publié sur LeBigData.fr.

]]>
Le vendeur cloud Salesforce présente Einstein, une intelligence artificielle permettant d’améliorer la gestion des relations clients des entreprises. Grâce aux technologies du Machine Learning et de l’analyse prédictive, les utilisateurs pourront exploiter de nombreuses données pour satisfaire leur clientèle. 

Ce dimanche 18 septembre 2016, Salesforce a présenté son intelligence artificielle Einstein. Cette IA de pointe permettra aux utilisateurs de la plateforme de mieux servir leurs clients.

Le potentiel de l’intelligence artificielle pour augmenter les capacités humaines a déjà été prouvé dans de nombreux domaines. Aujourd’hui, Salesforce compte bien démontrer son potentiel pour répondre aux besoins spécifiques des entreprises. Selon John Ball, manager général de Salesforce Einstein, la plupart des entreprises peinent à exploiter cette technologie à cause de sa complexité.

Avec Einstein, Salesforce compte changer la donne. Cette nouvelle technologie est décrite comme « une intelligence artificielle pour tous ». Cette IA est intégrée à tous les services Cloud de Salesforce. Ainsi, la plateforme CRM bénéficiera désormais des avancées du Machine Learning, du Deep Learning, des Predictive Analytics, et du traitement naturel du langage

Einstein, un nouvel outil pour tous les clouds de Salesforce

sales-force-einstein-4

Par exemple, sur le cloud ventes de Salesforce, le Machine Learning alimentera un nouvel outil de « predictive lead scoring », permettant d’analyser toutes les données relatives aux différents profils de clients. Parmi ces données, on dénombre les champs standards et customisés, les données d’activité en provenance des représentants, et des activités comportementales résultant des différentes campagnes.

L’objectif est de dresser un rapport prédictif pour chaque profil lead. Au fil du temps, le modèle continuera de s’améliorer en apprenant de signaux comme la localisation géographique des clients, l’industrie dans laquelle ils travaillent, le poste qu’ils occupent, les clics effectués sur le web, ou encore les emails.

Un autre outil permettra d’analyser les données CRM combinées avec les interactions clients. Par exemple, les emails de prospection seront analysés pour identifier des signaux d’achat plus tôt dans le processus de vente, et ainsi recommander les étapes suivantes afin d’augmenter la propension des représentants à conclure une transaction.

salesforce-einstein-3

Au sein du cloud service, Einstein permettra d’utiliser un outil permettant d’augmenter la productivité en établissant une liste de suggestions pour les agents de service. Cette liste sera basée sur les contextes et l’historique des cas, mais également sur les précédentes communications.

Les clouds Marketing, Commerce, Community, Analytics, IoT et App bénéficieront également d’Einstein. Cette IA est capable d’exploiter toutes les données au sein de Salesforce, y compris les données d’activité en provenance de son réseau social Chatter,des emails, du calendrier, du ecommerce, et des flux de données sociales ou des signaux IoT pour développer son modèle Machine Learning.

Cette technologie repose sur les récentes acquisitions de Salesforce comme MetaMind. Au total, plus de 175 data scientists ont aidé à son développement.

L’intelligence artificielle, nouvelle priorité des entreprises

salesforce-einstein-2

Selon Denis Pombriant, managing principal chez Beagle Research Group, tous les vendeurs doivent désormais relever le défi de proposer une intelligence artificielle viable. Une bonne intelligence artificielle doit rendre le savoir facile à collecter et à manipuler. En intégrant des produits comme Einstein au sein d’applications liées aux clients, il est possible d’augmenter les performances des entreprises. L’objectif n’est pas de supprimer des emplois, mais de créer de nouveaux emplois grâce à l’automatisation.

La plupart des concurrents directs de Salesforce, comme Oracle, Microsoft et SAP, ont leurs propres programmes IA. Certains d’entre eux ont été créés bien avant Salesforce. Effectivement, les analyses prédictives sont utilisées depuis maintenant des années par les marketers, et les vendeurs comme Pegasystems ont appliqué cette technologie à la gestion des relations clients.

Les nouvelles fonctionnalités d’Einstein seront disponibles à partir du mois prochain dans le cadre de la sortie de Salesforce Winter 17. Nombre d’entre elles seront ajoutées à des licences et des éditions existantes, tandis que d’autres nécessiteront un investissement additionnel.

Cet article Einstein : l’IA de Salesforce au service du CRM a été publié sur LeBigData.fr.

]]>
https://www.lebigdata.fr/einstein-ia-salesforce-crm-2009/feed 2
CERN : Oracle analyse les données du LHC https://www.lebigdata.fr/cern-oracle-lhc-1309 Tue, 13 Sep 2016 20:28:08 +0000 https://www.lebigdata.fr/?p=2234 Pendant plus d’un demi-siècle, les scientifiques du CERN ont tenté de comprendre les mécanismes internes de l’univers. Aujourd’hui, l’institution européenne …

Cet article CERN : Oracle analyse les données du LHC a été publié sur LeBigData.fr.

]]>
Pendant plus d’un demi-siècle, les scientifiques du CERN ont tenté de comprendre les mécanismes internes de l’univers. Aujourd’hui, l’institution européenne a décidé d’exploiter le potentiel du Cloud et du Big Data pour réduire les coûts et augmenter la flexibilité de son infrastructure de recherche informatique. 

Depuis 2008, les scientifiques du monde entier utilisent l’accélérateur de particules LHC du CERN pour recréer les conditions du Big Bang et comprendre le fonctionnement de l’univers. Quatre ans après l’inauguration du LHC, les chercheurs ont découvert le Boson de Higgs, dernière pièce manquante du modèle standard de la physique des particules.

Cependant, ce modèle standard n’explique que 5% du fonctionnement de l’univers. Dorénavant, le CERN et la communauté mondiale des chercheurs en physique espèrent faire de nouvelles découvertes pour élucider le reste des mystères de l’univers. Afin d’y parvenir, les chercheurs analysent de larges quantités de collisions entre particules subatomiques.

Le LHC génère 30 petabytes de données par an

cern-data-center

Ces collisions créent des petabytes de données. Au fil des années, l’analyse de ces données va nécessiter plus de puissance informatique et de capacité de stockage que n’en offrent les Data Centers du CERN. Le budget du CERN, estimé à 1,1 milliard de dollars par an, fourni par 22 pays, n’est pas suffisant pour financer une telle puissance informatique.

Chaque année, les expériences menées au sein du LHC génèrent plus de 30 petabytes de données. Le Data Center du CERN offre 250 petabytes d’espace de stockage et 200 000 cœurs de calcul. L’analyse des données physiques est assurée par le réseau mondial de 170 centres informatiques formant le Worldwide LHC Computing Grid. Chaque jour, 2 millions de tâches sont effectuées sur ce réseau. 

cern-lhc-big-data-cloud

En plus des données en provenance du LHC, d’autres données devront être traitées par le CERN dans les années à venir. L’institution développe actuellement un projet baptisé Future Circular Collider, censé succéder au LHC. Quatre fois plus large, ce nouveau centre de collision produira encore plus de données. Pour analyser ces immenses quantités de données, le CERN devra s’en remettre au Cloud et adopter un modèle de stockage hybride.

Oracle Big Data Discovery, une solution analytique adaptée aux besoins du CERN

Pour capturer les données de son accélérateur, le CERN utilise plus de 50000 capteurs et autres appareils de mesure. Pour analyser plus efficacement ces données, le centre collabore désormais avec Oracle Big Data Discovery. Les données sont analysées pour vérifier que les accélérateurs fonctionnent à pleine puissance. Dans le cas contraire, elles permettant d’identifier les ressources nécessaires pour exploiter pleinement ce potentiel.

Les outils de simulations de la plateforme Oracle Big Data Discovery permettent au CERN openlab d’établir une corrélation entre les problèmes de puissance et la consommation d’électricité, la conversion d’énergie, et la quantité d’eau utilisée. Ces corrélations permettent de guider les systèmes de refroidissement, de réchauffement et d’injection d’énergie.

oracle

Le CERN peut à présent déterminer quelle combinaison d’infrastructures et de systèmes techniques sera la plus bénéfique pour ses recherches physiques. Oracle Big Data Discovery permet à l’institution de mettre en place une architecture pour l’analyse de fiabilité et de disponibilité des systèmes au sein du FCC. L’organisation souhaite développer un tableau de bord permettant de superviser le complexe dans son ensemble pour déterminer les améliorations à fournir sans dilapider son budget.

Oracle Database Cloud protège les données du CERN

oracle-database

L’équipe de l’openlab test également Oracle Database Cloud en guise de solution de récupération en cas de désastre. L’utilisation d’une telle solution permettra d’assurer la sécurité des données et la continuité de l’activité efficacement et à moindre coût. L’interface visuelle d’Oracle Big Data Discovery a le potentiel nécessaire pour aider les chercheurs et Data Scientists à extraire et à interpréter les données en provenance de la plateforme Hadoop.

Ils pourront ensuite facilement créer des applications analytiques et partager leurs découvertes. En somme, le Big Data et le Cloud facilitent grandement la tâche des chercheurs et contribue ainsi à faire avancer la recherche plus rapidement.

Cet article CERN : Oracle analyse les données du LHC a été publié sur LeBigData.fr.

]]>
MapR : un nouveau CEO venu d’Oracle https://www.lebigdata.fr/mapr-nouveau-ceo-venu-doracle Thu, 08 Sep 2016 20:13:54 +0000 https://www.lebigdata.fr/?p=2202 Le CEO de MapR, John Schroeder, vient de céder sa place à Matt Mills. Ce dernier prend les commandes de …

Cet article MapR : un nouveau CEO venu d’Oracle a été publié sur LeBigData.fr.

]]>
Le CEO de MapR, John Schroeder, vient de céder sa place à Matt Mills. Ce dernier prend les commandes de la firme, avec de nouvelles ambitions pour son développement et sa gestion.

Ancien membre exécutif d’Oracle, Matt Mills vient d’être nommé CEO de MapR. Il y a un an, l’homme quittait Oracle pour devenir président et COO de MapR Technologies. Depuis ce jeudi 8 septembre 2016, il occupe dorénavant le poste de CEO.

Il prend la place du cofondateur John Schroeder, qui occupera dorénavant un siège du conseil administratif. Celui-ci se concentrera sur la stratégie de produit et les relations consommateurs.

Une évolution naturelle

mills-schroeder-compressed

Selon MapR, cette nomination est une évolution naturelle pour Mills, après le développement d’Oracle en Amérique du Nord. Il faisait également partie du comité exécutif d’Oracle, et participait donc à la stratégie globale de l’entreprise. Son expérience dans la gestion d’opérations de grande envergure est un véritable atout pour MapR, selon John Schroeder. Ce dernier considère son successeur comme la garantie d’un avenir prometteur dans les cinq années à venir pour MapR.

Au début du mois d’août, la firme a levé plus de 50 millions de dollars dans le cadre d’une levée de fonds de série E menée par Future Fund. Cette somme s’ajoute à un total de 194 millions de dollars levés. On ignore à l’heure actuelle la valorisation de l’entreprise, composée de 500 personnes.

MapR, un acteur majeur du marché des Big Data

MapR se spécialise dans la création de logiciels de stockage et d’analyse du Big Data. Parmi ses principaux rivaux, on compte Hortonworks, rendu public depuis décembre 2014, et Cloudera, qui a levé plus de 1,2 milliard de dollars auprès d’entreprises comme Intel.

Par le passé, les exécutifs de MapR se sont montrés plutôt candides au sujet de leurs ambitions pour une offre publique initiale. L’automne dernier, la firme envisageait le début de l’année 2016. Aujourd’hui toutefois, ni Schroeder ni Mills ne souhaitent s’exprimer à ce sujet.

L’un des objectifs de Mills, selon ses propres dires, est de créer une entreprise IPO-ready. Par conséquent, MapR devrait être plus discipliné dans la dépense et la gestion de budget pour un chiffre d’affaires positif au premier semestre 2017. On peut également s’attendre à des transactions plus importantes. Pour l’heure, on ignore le nombre de clients actuels de MapR. Le dernier nombre révélé était de 700, et incluait des clients de prestige comme American Express et Cisco.

Cet article MapR : un nouveau CEO venu d’Oracle a été publié sur LeBigData.fr.

]]>
Big Data, BI et Analytics : tour d’horizon des prévisions et estimations du marché https://www.lebigdata.fr/big-data-bi-analytics-tour-dhorizon-previsions-estimations-marche https://www.lebigdata.fr/big-data-bi-analytics-tour-dhorizon-previsions-estimations-marche#comments Wed, 24 Aug 2016 17:54:44 +0000 https://www.lebigdata.fr/?p=2098 Découvrez les prédictions et estimations des spécialistes concernant les différents marchés du Big Data, des Analytics et de la Business …

Cet article Big Data, BI et Analytics : tour d’horizon des prévisions et estimations du marché a été publié sur LeBigData.fr.

]]>
Découvrez les prédictions et estimations des spécialistes concernant les différents marchés du Big Data, des Analytics et de la Business Intelligence. Des prévisions qui dessinent l’avenir de l’industrie du Big Data. 

À l’heure actuelle, les investissements Big Data, Business Intelligence et Analytics sont guidés par trois principaux facteurs. Ces trois facteurs sont la centralisation des entreprises autour de leur clientèle, la focalisation sur les initiatives permettant d’entrer sur de nouveaux marchés, et l’amélioration des performances opérationnelles

La découverte d’informations exploitables dissimulées dans les données non structurées offre aux entreprises l’opportunité d’être plus compétitives et de s’améliorer dans des domaines à visibilité limitée. Parmi ces domaines, la relation entre les ventes et les services B2B, les services de santé, et la maintenance des machineries complexes.

En pleine évolution, le secteur du Big Data, de la BI et des outils analytiques va connaître une forte croissance et d’importantes transformations dans les années à venir. Voici les principales prévisions et estimations du marché dévoilées par différents spécialistes et cabinets :

Marché de la BI et des analytics

Le chiffre d’affaires mondial du marché de la BI et de l’analytique devrait atteindre 16,9 milliards de dollars en 2016. Une augmentation de 5,2% par rapport à 2015. Selon Gartner, le marché du BI et de l’analytique est à l’étape finale d’une transition sur plusieurs années vers les analytiques en self-service.

Marché du Big Data et des business analytics

D’après IDC, le chiffre d’affaires mondial du Big Data et des business analytics passerait de 122 milliards de dollars en 2015 à plus de 187 milliards de dollars en 2019. Une augmentation de 50% sur 5 ans. Les industries présentant les plus grandes opportunités de chiffre d’affaires sont les le Discrete Manufacturing (22,8 milliards de dollars en 2019), la banque (22,1 milliards de dollars) et le Process Manufacturing (16,4 milliards de dollars).

Marché du Big Data

wikibon

Selon Wikibon, le marché mondial du Big Data passerait de 183 milliards de dollars en 2014 à 92,2 milliards de dollars en 2026. Cette évolution représente un taux de croissance annuel de 14,4%. Wikibon prédit une croissance importante dans les quatre sous-segments de logiciels Big Data jusqu’à 2026. La gestion de données augmenterait de 14%. Les technologies de cœur comme Hadoop et Spark évolueraient de 24% par an. Les bases de données vont croître de 18% et les applications, outils et analytiques Big Data vont gagner 23% de croissance de chiffre d’affaires. 

Marché des applications analytiques et BI

applications-bi

Selon Apps Run the World, en 2015, le marché mondial des applications analytiques et Business Intelligence a crû de 4% pour atteindre les 11,6 milliards de dollars en revenus de licence, maintenance et souscription. SAP demeure le leader du marché, avec 10% de PdM et 1,2 milliards de dollars de chiffre d’affaires en produits Analytics et BI. Ses revenus de licence, maintenance et souscription ont augmenté de 23%. SAS Institute arrive en 2ème place avec 9% de parts, suivi par IBM à 8%, Oracle à 7% et Microsoft à 5%.

Marché des solutions Big Data Cloud

depenses-big-data

D’ici 2020, ICD prévoit que les dépenses dans les technologies Big Data et Analytics basées sur le Cloud augmenteront 4,5 fois plus vite que les solutions On-Premises. D’ici 2020, 50% des logiciels analytiques business proposeront des analytiques prescriptifs basés sur des fonctionnalités de computing cognitif.

Marché des données

D’après 451Research, le marché des données dans sa globalité devrait doubler de volume d’ici 2020. Il passerait de 69,6 milliards de revenu en 2015 à 132,3 milliards en 2020.

Adoption du Big Data

adoption-big-data

D’après l’International Institute for Analytics, l’adoption mondiale du Big Data est dirigée par les opérations américaines et internationales (29%) et par les entreprises américaines et internationales (27%). Les firmes de midmarket rencontrent le plus grand taux de croissance des initiatives et programmes Big Data dans leurs organisations entre 2014 et 2015.

Principaux objectifs des initiatives Data

initiatives-big-data

Selon IDG, les investissements dans les initiatives Data ont deux principaux objectifs à l’heure actuelle. Il s’agit d’améliorer les relations avec les clients (55%), et de focaliser les entreprises sur les données (53%). 78% des entreprises reconnaissent que la collecte et l’analyse des Big Data a le potentiel de changer fondamentalement leurs activités d’ici 1 à 3 ans.

Investissements Big Data

initiatives-big-data

D’après Matt Turck, les investissements Big Data ont accéléré rapidement au début de cette année. DataDog a récolté 94 millions de dollars, BloomReach 56 millions, Qubole 30 millions, et PlaceIQ 25 millions. Au total, les startups Big Data ont reçu 6,64 milliards de dollars et 2015, soit 11% du total des investissements technologiques.

Marché des Business Analytics

Selon IDC, en 2015, cinq principaux leaders se sont partagé le marché des Business Analytics. Il s’agit d’Oracle (16,4%), SAP (13,1%), IBM (10,3%), Microsoft (9,1%) et SAS (6,1%). La portion on-premises du marché s’est réduite de 1,4%, tandis que les revenus des services Cloud public ont augmenté de 26,5%. Le Cloud public représente désormais 17% du marché.

Dépenses mondiales en systèmes cognitifs

cognitive-systems

Toujours selon les prévisions d’IDC, les dépenses mondiales dans les systèmes cognitifs atteindront les 31,3 milliards de dollars en 2019 avec un taux de croissance annuel de 55%. Plus de 40% des dépenses de systèmes cognitifs seront destinées aux applications et aux plateformes logicielles.

Marché des logiciels d’analyse prescriptive

Aux dires de Gartner, le marché des logiciels d’analyse prescriptive devrait croître de 22% par an. Il passerait ainsi de 415 millions de dollars en 2014 à 1,1 milliard de dollars en 2019. 10% des entreprises utilisent à l’heure actuelle les analyses prescriptives. Ce taux devrait augmenter à 35% d’ici 2020.

Marché mondial de la business intelligence et des logiciels analytiques

D’après Marketresearch, le marché mondial des logiciels analytiques et de la business intelligence passerait de 17,9 milliards de dollars en 2014 à 26,78 milliards de dollars en 2019. Ceci représente un taux de croissance annuel de 8,4%. Le marché serait principalement alimenté par les banques, les services financiers, les assurances, le retail, les technologies informatiques et les télécom.

Investissements dans les analyses prédictives et prescriptives

D’ici 2020, Gartner prédit que les analyses prédictives et prescriptives attireront 40% des nouveaux investissements dans la business intelligence et les analytiques. En 2020, seuls 50% des Chiefs Analytics Officers seront parvenus à créer un lien entre les objectifs financiers et les initiatives et investissements dans les analytiques et la BI.

Marché Hadoop et Big Data Analytics

Selon Statistics Market Research Consulting, le marché Hadoop et Big Data a engrangé 8,48 milliards de dollars en 2015. D’ici 2022, il pourrait atteindre 99,31 milliards avec un taux de croissance annuel de 42,1% de 2015 à 2022. Parmi les facteurs de cette croissance, on retrouve la croissance rapide de la collecte de données de consommateurs, et des techniques de taxonomie.

Cet article Big Data, BI et Analytics : tour d’horizon des prévisions et estimations du marché a été publié sur LeBigData.fr.

]]>
https://www.lebigdata.fr/big-data-bi-analytics-tour-dhorizon-previsions-estimations-marche/feed 1