analyse prédictive – LeBigData.fr https://www.lebigdata.fr Le magazine du Big Data et du Cloud Computing Fri, 07 Dec 2018 16:46:59 +0000 fr-FR hourly 1 Epilepsie : Quand le Big Data aide la recherche à la combattre https://www.lebigdata.fr/epilepsie-big-data-combattre Fri, 03 Nov 2017 08:56:38 +0000 https://www.lebigdata.fr/?p=5382 Des chercheurs de l’école médicale de l’université de Swansea au Royaume-Uni se sont associés avec 5 centres universitaires dans le …

Cet article Epilepsie : Quand le Big Data aide la recherche à la combattre a été publié sur LeBigData.fr.

]]>
Des chercheurs de l’école médicale de l’université de Swansea au Royaume-Uni se sont associés avec 5 centres universitaires dans le monde pour agréger la plus grosse collection de données concernant des familles atteintes d’une forme d’ épilepsie où la génétique est un facteur récurrent de contraction de la maladie.

L’objectif était de déterminer si des caractéristiques cliniques spécifiques de l’ épilepsie sont communes au sein des familles et si cela peut constituer des syndromes familiaux distincts. Cela pourrait aider à améliorer la recherche génétique sur l’épilepsie.

Les données utilisées lors de cette recherche clinique proviennent de plus de 300 familles dont au moins trois membres souffrent de crises sans cause immédiate. Cette recherche de l’institut britannique a révélé que les familles présentaient des formes identiques épilepsies, mais aussi des formes mixtes.

Ce lac de données de santé a également permis d’établir que certaines formes d’épilepsies considérées rarissimes ne l’étaient pas tant que ça.

Le Big Data aide à faire des découvertes sur l’ épilepsie

En assemblant les données, les chercheurs ont ainsi fait de nouvelles découvertes concernant les formes génétiques de l’épilepsie. Cette maladie qui affecte 50 millions de personnes dans le monde selon l’OMS et un donc un mal connu touchant principalement les pays en voie de développement. Les traitements existent, mais il est plus difficile de déterminer les causes génétiques de cette infection.

Un des responsables de cette recherche a déclaré : “l’ épilepsie a un effet considérable sur la vie des patients et ce projet a permis d’améliorer notre connaissance de certaines formes d’épilepsies génétiques. Nous attendons avec intérêt d’autres résultats de l’étude qui pourraient nous aider à développer de nouveaux moyens de traitement de l’ épilepsie.”

Pas encore de traitements intelligents, mais…

bioserenity epilepsie

Dans cette optique d’adapter les traitements aux types de crises, un outil de machine learning pourrait utiliser de tel résultat afin de détecter des modèles dans ces données ou d’établir des traitements personnalisés. Watson, l’assistant des oncologues d’IBM pourrait être adapté à la détection de symptômes des épilepsies génétiques et proposer le traitement adéquat.

Pour l’instant le Big data aide la recherche à identifier les formes de cette infection et à en détecter les causes. Par exemple, l’entreprise française Bioserenity développe des vêtements connectés capables de repérer les effets d’une crise et de prévenir les secours en temps réel. Ce même dispositif peut diagnostiquer l’ épilepsie chez des personnes dont on n’avait pas découvert l’infection.

Le machine learning permettrait également de prédire les crises avant qu’elles ne se produisent. Il faut pour cela analyser les données en provenance des électroencéphalogrammes (EEG) afin de déterminer à quelle fréquence une crise peut avoir lieu. Le Docteur britannique Gareth Jones a évoqué dans un article l’expérience menée par des chercheurs sur la plateforme Kaggle. Si cette “maintenance prédictive du cerveau” reste encore au stade de l’expérimentation, les possibilités d’amélioration du quotidien des malades sont importantes.

Cet article Epilepsie : Quand le Big Data aide la recherche à la combattre a été publié sur LeBigData.fr.

]]>
Comment le big data aide à prévenir les catastrophes naturelles https://www.lebigdata.fr/catastrophes-naturelles-big-data Mon, 11 Sep 2017 17:45:40 +0000 https://www.lebigdata.fr/?p=5060 Les derniers n’ont pas été de tout de repos pour les habitants des caraïbes. Les Antilles, Cuba, Haïti, la Floride …

Cet article Comment le big data aide à prévenir les catastrophes naturelles a été publié sur LeBigData.fr.

]]>
Les derniers n’ont pas été de tout de repos pour les habitants des caraïbes. Les Antilles, Cuba, Haïti, la Floride ont été touchés par l’ouragan Irma dont les rafales ont atteint une vitesse allant jusqu’à 363 kilomètres par heure. Comment prévoir ces catastrophes naturelles, comment se préparer à de tels événements ? Voilà des questions que le Big Data aide à résoudre en partie.

Des événements climatiques à anticiper

noaa catastrophes naturelles

Les catastrophes naturelles peuvent sembler imprévisibles. Pourtant, les centres météorologiques et sismiques sont maintenant capables de prévoir les événements les plus dangereux grâce au Big data. C’est aussi grâce à cet ensemble technologique que les spécialistes arrivent à suivre l’évolution en temps réel des dépressions, des secousses ou tout autre événement de cette ampleur.

Cela permet dans un premier temps d’estimer les catastrophes naturelles ayant lieu dans une zone géographique précise. Si l’on prend l’exemple des ouragans comme Harvey ou Irma, les scientifiques sont capables d’estimer le nombre d’événements de ce type.

La National Oceanic and Atmospheric Administration, l’agence publique en charge de l’observation des dépressions atmosphériques aux États-Unis avait annoncé à la fin du mois dernier ses prévisions pour la saison des ouragans pour 2017 dans l’Atlantique Nord. Selon l’agence il y avait 45 % de chance d’avoir une activité cyclonique supérieure à la normale cette année. La NOAA prévoyait 5 à 9 ouragans et 2 à 4 ouragans majeurs. Ces données sont forcément comparées à l’année précédente en prenant en compte l’évolution des conditions de formation des dépressions.

Des données à faire converger

destruction catastrophes naturelles

En effet, un ouragan, un typhon ou un cyclone se forme suivant des conditions particulières. Il faut que l’eau de la mer atteigne une température supérieure à 26 degrés sur une profondeur de 60 mètres. Il faut également que l’humidité dans l’air soit suffisante et que des vents tourbillonnants y soient associés. Les autres paramètres de croissance sont mesurables grâce aux stations météorologiques et aux balises disséminées dans les zones concernées, ainsi que les photos et vidéos récupérés par satellite. C’est ce qui permet d’affiner les résultats obtenus avec les algorithmes de prévisions.

Cependant, certaines catastrophes naturelles comme celles que nous évoquons se mettent en place en peu de temps. Le terrible ouragan Irma s’est formé en 10 jours. Cela laisse peu de temps pour les spécialistes de prédire la trajectoire de la dépression, encore moins de temps pour les autorités des pays, régions ou départements concernés de se “préparer à l’impact”.

L’open data et le partage de données sont deux pratiques qui peuvent faciliter le déploiement des éléments de protection et permettre aux populations d’évacuer les zones de sinistre avant que les ouragans touchent les terres. En cas de sinistre, le principe du data lake facilite la mise en commun des ressources.

Les catastrophes naturelles plus faciles à observer avec l’IoT et le Data Lake

catastrophes naturelles ouragan

Les méthodologies de la supply chain en rapport avec le Big Data sont idéales afin de réaliser un inventaire des ressources matérielles et alimentaires disponibles. En ayant ce type d’informations, les autorités peuvent organiser le déploiement des protections, des évacuations, et ensuite de faire intervenir les secours. Le prédictif malgré l’aléatoire de la situation octroie aux professionnels de l’intervention des schémas afin de repérer plus facilement les personnes à secourir. Mais cela demande de développer l’Internet des objets et les algorithmes qui feront la corrélation entre ces informations. Les assureurs et les entreprises spécialisées dans la météorologie comme The Weather Company (IBM) ou AccuWeather sont évidemment très intéressés par la mise en place de ce type de solutions.

L’exploitation du Big Data les modèles, les algorithmes issus du Big Data sont majoritairement utilisés pour réaliser de la prévision et de l’estimation après les catastrophes naturelles. Estimer le coût des dégâts est aussi très important pour les autorités, ainsi que pour les entreprises. De son côté, Irma aurait causé 100 milliards de dollars de dégâts aux États-Unis. Cette automatisation de la comptabilité assure une meilleure historicité des catastrophes naturelles qui se multiplient dans certaines régions.

De leur côté, les entreprises vont chercher à anticiper les impacts de telles catastrophes naturelles sur leur activité. Les modèles algorithmiques, les modèles de Data Lake, le principe de l’open data, les données en provenance des capteurs, tous ces éléments permettent de prévenir et d’intervenir lors de ces sinistres. Encore faut-il avoir les moyens de mettre en place ces technologies. Haïti et Cuba auront beaucoup plus de mal à se préparer à cette nouvelle donne qu’aux États-Unis.

Cet article Comment le big data aide à prévenir les catastrophes naturelles a été publié sur LeBigData.fr.

]]>
Tour de France : il rentre dans l’ère du Machine Learning et du Big Data https://www.lebigdata.fr/tour-de-france-machine-learning-big-data Thu, 20 Jul 2017 15:15:55 +0000 https://www.lebigdata.fr/?p=4775 Depuis deux ans, le Tour de France est rentré dans l’ère du Big Data grâce à la société Dimension Data. …

Cet article Tour de France : il rentre dans l’ère du Machine Learning et du Big Data a été publié sur LeBigData.fr.

]]>
Depuis deux ans, le Tour de France est rentré dans l’ère du Big Data grâce à la société Dimension Data. Cette année les deux partenaires vont plus loin en passant au machine learning. Explications.

Il est loin le temps des Poulidor, Anquetil, ou Hinault, le Tour de France a bien changé. La compétition préférée des amateurs de cyclisme a suivi les évolutions technologiques de ces vingt dernières années pour finalement devenir le terrain d’essai de nouvelles technologies en passe de s’imposer dans le monde du sport et de l’industrie.

Depuis 2015, le groupe Amaury, l’organisateur du Tour de France et propriétaire du média l”Equipe, fait appel à la société sud-africaine Dimension Data pour fournir des données détaillées sur la tenue de l’événement.

Le Tour de France, gourmand en infrastructure

Pour ce faire, les deux entreprises mêlent Big Data, Cloud Computing et Internet des Objets. Concrètement, les données sont remontées depuis des transpondeurs GPS situés sous les selles et les gyroscopes dans les pédales des coureurs. Pour assurer, une connectivité maximale, les capteurs fonctionnent en réseau maillé : ils sont interconnectés pour que les informations soient relayés à la voiture de course, puis à l’hélicoptère jusqu’au camion technique situé en fin d’étape. Cette logistique, gérée en grande partie par Amaury Sport Organisation et la chaîne TV Eurosport, est importante à détailler pour comprendre le type de traitement de données effectuées lors du Tour de France.

Les quelques 19 Gigaoctets récoltés par jour sont envoyés sur le Cloud de Dimension Data qui s’occupe de la partie analytique afin de mettre à jour les informations de la compétition toutes les secondes. Le tout est retranscrit par le biais d’une data visualisation sur le site officiel du tour de France et sur FrancetvSport.

Il faut ajouter à la géolocalisation des coureurs, leur espacement et leurs vitesses en temps réel, les tracés des étapes, le classement des coureurs, les flux des réseaux sociaux, les photos et les vidéos accessibles pendant et après les étapes.

Suivre la compétition à l’aide du Big Data

tour de france donnee

Bref, Il ne s’agit pas seulement pas d’informer les téléspectateurs du temps et des kilomètres restants, mais de leur fournir à eux, aux organisateurs et aux responsables des 22 équipes des données cruciales sur le déplacement des 198 coureurs engagés lors de cette 104e édition d’une longueur de 3540 kilomètres.

Ce ne sont pas moins de 150 millions de données géospatiales et environnementales qui sont traitées pour obtenir une expérience dite de “Data Driven Story”, c’est-à-dire le fait de raconter une histoire avec les données. Par ailleurs, l’entreprise, partenaire officiel du tour de France, prévoit la création de trois milliards de points de données.

Le Machine Learning entre en scène en 2017

tour de france big data

Cette année, Dimension Data est allé plus loin. L’entreprise, qui dispose de sa propre équipe de cyclistes sur le tour, a intégré dans son offre un outil de machine learning. Grâce aux algorithmes qu’elle a composés à d’autres fins, l’ESN fait converger les informations de la journée en cours avec les étapes précédentes pour prédire les vainqueurs d’étape.

Selon les propos recueillis par Forbes France, sur la première semaine, Dimension Data a été capable de deviner 5 des sept vainqueurs d’étape.
Pour l’instant, ces résultats ne sont pas rendus publics, mais il s’agit là d’une expérience qui pourrait se démocratiser à l’avenir. Ce serait alors une véritable aubaine pour les amateurs de paris sportifs qui pourraient s’essayer aux paris prédictifs. Cela intéresse forcément les organisateurs de ces jeux d’argent comme la PMU ou le site Bwin qui tiennent les paris depuis le début de la compétition.

Les limites du prédictif : l’heureux hasard du Tour de France

dimension data tour de france big data

Il y a tout de même des limites à cette technologie. Dimension Data n’est pas encore capable de prédire les abandons (29 en ce 20 juillet), les chutes, les comportements dangereux ou les arrivés hors délai : ce qui relève du hasard et du mental. De plus, tous les vélos de rechange ne sont pas équipés de balises GPS. En effet, seuls les cycles utilisés au départ d’une étape disposent d’une selle dotée de ce type de capteur.

Tant mieux pour les allergiques à la technologie. Malgré cette armada de données mises au service du Tour de France, il est toujours de difficile de deviner le vainqueur à la fin d’une étape, et à l’arrivée sur les champs Élysée de dire à coup sûr qui sera le maillot jaune. On s’y rapproche tout de même fortement.

Cet article Tour de France : il rentre dans l’ère du Machine Learning et du Big Data a été publié sur LeBigData.fr.

]]>
Transfer Learning : réaliser de meilleures prédictions avec peu de données https://www.lebigdata.fr/transfer-learning-analytique-0201 Mon, 02 Jan 2017 18:10:23 +0000 https://www.lebigdata.fr/?p=3290 Le Transfer Learning vise à transférer des connaissances d’une ou plusieurs tâches sources vers une ou plusieurs tâches cibles. Avec cette …

Cet article Transfer Learning : réaliser de meilleures prédictions avec peu de données a été publié sur LeBigData.fr.

]]>
Le Transfer Learning vise à transférer des connaissances d’une ou plusieurs tâches sources vers une ou plusieurs tâches cibles. Avec cette technique, il est possible d’appliquer des données apprises à partir de tâches antérieures sur de nouvelles tâches ou domaines partageant des similitudes.

Lorsque Donal Trump a déclaré sa candidature pour devenir président, la plupart des analystes avaient prédit qu’il avait une chance infiniment petite d’y arriver. L’analyse la plus représentative fut celle de Nate Silver pour FiveThirtyEight. Il a estimé que Donald Trump avait 2% de chances de gagner la présidentielle. Cette estimation était basée sur de nombreuses données historiques concernant les anciens candidats, leur origine, et leurs succès et échecs passés. Il est donc clair qu’il est compliqué de tirer des prédictions claires de données historiques comme celles-ci. 

transfer learning iot

Les analystes politiques utilisent les sondages pour estimer la probabilité du succès d’un candidat. Cependant, les sondages ne sont pas parfaits et souffrent généralement de plusieurs types de préjugés. Pour surmonter ces obstacles, les statisticiens politiques construisent des modèles pour tenter de corriger les erreurs de sondage en utilisant les données des élections précédentes. Cette méthode est basée sur l’hypothèse que les sondages actuels et historiques souffrent du même type d’erreurs.

Puisque les élections présidentielles sont des événements rares, les données historiques sont limitées. En d’autres termes, les données sont relativement petites et dépassées.

Mieux comprendre les phénomènes économiques et sociaux

Les statisticiens du secteur privé font face à des problèmes semblables lorsqu’il s’agit de prédire des événements inattendus ou lorsqu’ils travaillent à partir de données erronées ou incomplètes. Il ne suffit pas de renvoyer tout le travail vers les machines. La plupart des techniques de machine-learning et l’exploitation statistique supposent que les données historiques utilisées pour former le modèle du machine-learning se comportent de la même manière que les données cibles auxquelles le modèle a été appliqué ultérieurement. Cette hypothèse ne tient souvent pas la route parce que les données sont obsolètes. De plus, il est souvent coûteux et peu pratique d’obtenir des données récentes supplémentaires pour confirmer cette hypothèse.

Pour rester pertinents, les statisticiens devront sortir de la position basique de la mise en place de  modèles basés uniquement que des données historiques directes et enrichir leurs modèles de données récentes pour mieux cibler les tendances actuelles.

Cette technique est appelée Transfer Learning, elle aide à résoudre ce type de problème en offrant un ensemble d’algorithmes qui identifie les domaines de connaissance potentiellement applicables au domaine cible. Cet ensemble de données plus large peut ensuite être utilisé pour aider à former un modèle. Ces algorithmes identifient les points communs entre la tâche cible, les tâches récentes, les tâches précédentes et les tâches similaires. De ce fait, cela aide à guider l’algorithme pour apprendre uniquement à partir de données pertinentes.

competences-data-scientist-660x330

Dans le cas des élections présidentielles américaines, il serait possible d’utiliser cette méthode pour comprendre quels phénomènes économiques et sociaux internationaux pourraient prédire la montée d’un candidat inattendu comme Trump. Alors que le phénomène Trump est nouveau dans le climat politique américain, les analystes de la politique avait déjà observé cette tendance à un niveau mondial. Ronald Inglehart et Pippa Norris ont en effet examiné la croissance du populisme dans de nombreuses sociétés occidentales. Par exemple, depuis l’émergence du UK Independance Party au Royaume-Uni, le populisme a alimenté les sentiments anti-européens et anti-immigration, ce qui a donné lieu au Brexit. De même, l’insécurité économique dans les économies post-industrielles et la volonté de contrer la diversification des sociétés ont conduit les mêmes groupes d’électeurs aux urnes.

Les techniques de Transfer Learning auraient pu permettre aux statisticiens de mieux comprendre les tendances actuelles du vote à l’échelle mondiale. Selon ce modèle, les données provenant de l’extérieur des Etats-Unis auraient permis de prédire un plus grand soutien pour Trump, en particulier en se basant sur les données démographiques.

Une technique utile aux prédictions commerciales

Les problèmes qui découlent de l’utilisation de données historiques sont également fréquents dans de nombreux autres secteurs. Les entreprises ont tendance à réaliser des investissements stratégiques en se basant sur des données historiques en ignorant que la réalité a pu changer entre-temps.

On retrouve le problème des données incomplètes ou peu fiables dans de nombreux secteurs. Par exemple, une entreprise voulant appliquer une expérience réussie dans son pays d’origine à un autre pays, dans le but de s’y exporter, pourra utiliser le Transfer Learning pour identifier les similitudes entre les deux pays. Il est par exemple possible d’identifier des groupes de population qui présentent des caractéristiques démographiques et économiques similaires ainsi que ce qui les différencie. D’un point de vue commercial, cela permettra aux décideurs de simuler la performance de l’entreprise dans un environnement similaire au marché ciblé.

Au lieu d’utiliser les techniques courantes consistant à utiliser uniquement les données historiques du même problème pour faire des prédictions, les statisticiens politiques et les commerciaux doivent commencer à utiliser des données provenant de problèmes similaires survenus récemment. Pour établir un lien entre les deux problèmes, les algorithmes de Transfer Learning permettent de focaliser sur le processus d’apprentissage sur les parties les plus pertinentes des données historiques.

Malgré tout, les données historiques restent extrêmement précieuses pour réaliser des prédictions. Toutefois, la capacité à utiliser des techniques plus avancées en data science aidera à tirer parti de l’information d’événements comparables, ce qui est crucial pour établir des prévisions plus précises, surtout lorsque les données historiques sont limitées et l’environnement incertain. Pour évider les erreurs critiques dans la prédiction, les analystes de données doivent adopter de nouvelles méthodes pour traduire les connaissances provenant de différentes périodes et domaines.

Cet article Transfer Learning : réaliser de meilleures prédictions avec peu de données a été publié sur LeBigData.fr.

]]>
Comment l’analyse des données client améliore les entreprises SaaS https://www.lebigdata.fr/donnees-client-saas-2012 Tue, 20 Dec 2016 17:44:22 +0000 https://www.lebigdata.fr/?p=3167 Chaque société SaaS veut le succès de ses clients, mais la réussite de ces derniers exige une compréhension claire de …

Cet article Comment l’analyse des données client améliore les entreprises SaaS a été publié sur LeBigData.fr.

]]>
Chaque société SaaS veut le succès de ses clients, mais la réussite de ces derniers exige une compréhension claire de la valeur attendue. L’analytique peut fournir une telle perspective grâce à l’analyse des données client.

Il existe trois types d’analyse pour l’entreprise :

  • Analyse descriptive, donnant un aperçu des données historiques.
  • Analyse prédictive, qui prédit les tendances et des modèles de comportement.
  • Analyse prescriptive, qui se concentre sur la meilleure action pour une situation donnée.

La réussite des clients peut être améliorée grâce à ces trois types d’analyse.

Les équipes spécialisées dans la réussite client se tournent de plus en plus vers la technologie pour l’analyse prédictive, les aidant ainsi à identifier les clients à risque ou prêts à acheter davantage. Ces informations sont précieuses, car elles permettent aux entreprises SaaS de s’engager de manière proactive auprès des clients.

L’analyse descriptive des données client est également précieuse au sein d’une entreprise SaaS. Au-delà de la prévision du comportement des clients, les équipes de réussite client peuvent identifier les meilleures façons d’améliorer leurs produits et leur processus marketing pour contribuer à la réussite des clients.

Les données client résident dans une variété de systèmes au sein d’une entreprise au niveau du CRM, du marketing, du support, de la facturation et de bien d’autres points d’entrée pour les données client.

Combiner les détails de son compte, de son comportement et de ses commentaires permet d’avoir une image complète du client. L’analyse client s’appuie sur ces données riches pour identifier comment les entreprises peuvent améliorer leurs produits. Voyons désormais quelques-unes de ces techniques d’analyse populaires.

Agrégation et segmentation comme point de départ

données client data saas

L’agrégation et la segmentation des données client sont les points de départ de toute analyse. Ces outils donnent une compréhension complète et rapide d’un compte tout en permettant de tester des hypothèses. L’agrégation prend un ensemble de données pour en extraire une valeur unique. Par exemple, il peut s’agir du nombre d’utilisateurs uniques au cours des 30 derniers jours ou de la fréquence de l’utilisation d’une fonctionnalité au cours de la semaine. Visualisées au fil du temps, ces données client montrent une tendance ou des changements dans le comportement des clients.

La segmentation permet de définir un groupe de clients selon leurs caractéristiques. Par exemple, on pense aux comptes dont le MRR est supérieur à 2000 dollars ou les utilisateurs ayant utilisé une fonctionnalité particulière. Il est ensuite possible d’afficher les statistiques agrégées sur les segments, ce qui permet de les comparer.

Comprendre les facteurs qui affectent le succès au sein des différents segments peut permettre de créer des plans d’action pour directement cibler les problèmes des clients. Il est également possible de comparer les comptes dans le but d’élaborer des stratégies de rétablissement.

L’agrégation et les segmentations peuvent également aider les entreprises à comprendre le profil des clients qui ont connu le succès. Concentrer les programmes d’acquisition sur des clients susceptibles de réussir avec une solution en particulier permet d’accélérer la croissance d’une entreprise.

Lorsqu’il s’agit d’utiliser les agrégations et la segmentation, le défi est la grande quantité de données qu’il y a à explorer. Au fil des ans, les équipes spécialisées dans la réussite client développeront des intuitions pour accélérer le processus grâce aux données clients, alors que d’autres analyses permettront d’acquérir des informations supplémentaires.

Les cohortes pour tracer une action en particulier

entrepreneur cloud données client

L’analyse des cohortes segmente différemment que certaines caractéristiques. Une utilisation courante de cohortes place les clients dans des groupes. Il est ensuite possible de les suivre au fil du temps pour surveiller les changements dans la rétention des clients, le score de santé ou encore le niveau d’activité. Au fur et à mesure de l’amélioration du produit, il sera peut-être possible de voir que les cohortes montrent des améliorations.

Il est également possible de placer les clients en groupes en fonction de la date à laquelle ils ont effectué une action et les suivre en se basant sur cette action initiale. Ces fonctionnalités que les clients continuent d’utiliser sont susceptibles de fournir davantage de valeurs que ceux que les clients utilisent rarement ou cessent d’utiliser. Les données client des cohortes peuvent être combinées avec la segmentation pour affiner la compréhension du comportement des clients. Il est possible de segmenter les clients par secteur, par taille ou par industrie par exemple,pour voir voir si certaines fonctionnalités sont davantage associées à un secteur en particulier. Cela permet d’identifier les fonctionnalités à promouvoir auprès de tel ou tel client et permet de faire comprendre aux équipes de produits et marketing si un client apprécie une fonctionnalité en particulier.

L’analyse par entonnoir pour améliorer les étapes client

données client data

L’analyse par entonnoir se concentre sur le nombre de clients ayant terminé une série d’étapes et combien de temps leur a fallu pour y arriver. Pour cela, il suffit de définir une série d’actions que l’on attend des clients pour les suivre à travers ces étapes.

Une analyse client par entonnoir consiste à suivre les utilisateurs au moyen des processus d’inscription. En suivant ces différentes étapes, il est possible de voir le pourcentage de clients qui effectuent chaque étape, complètent chaque étape et où les problèmes importants se produisent.

Pour tirer le meilleur de l’analyse de données client par entonnoir, il est possible de commencer par suivre le nombre de personnes qui terminent le processus d’inscription. L’analyse par entonnoir est très utile pour les équipes voulant comprendre ou apporter des améliorations à leurs solutions. Cela est également précieux pour les équipes qui peuvent interagir avec prévoyance. Si une partie du produit pose problème aux clients, elles peuvent mieux les guider au cours des différentes étapes à l’aide de formations.

L’analyse de régression pour analyser les corrélations

L’analyse de régression identifie la corrélation entre les différentes métriques. Par exemple, il est possible exécuter une régression pour vérifier la corrélation entre la fréquence de connexion et les revenus. Les résultats peuvent révéler une augmentation des revenus avec une fréquence de connexion accrue ou une baisse des revenus avec augmentation de la connexion ou ne trouver aucune corrélation entre les revenus et la fréquence de connexion. La régression est un moyen utile d’identifier les tendances à partir de données non structurées. En identifiant la corrélation entre le temps et une métrique, il est possible de déterminer si cette métrique a augmenté ou diminué.

Amazon utilise les données de ses clients pour ouvrir une librairie

En somme, l’analyse des données client aide les équipes de réussite client à identifier les améliorations de leurs produits ainsi que de nouveaux processus de marketing. L’analyse des données client peut donc permettre aux entreprises SaaS d’améliorer considérablement leurs entreprises.

Cet article Comment l’analyse des données client améliore les entreprises SaaS a été publié sur LeBigData.fr.

]]>
Data science : apprendre la discipline en 8 étapes avec DataCamp https://www.lebigdata.fr/data-science-etapes-1512 https://www.lebigdata.fr/data-science-etapes-1512#comments Thu, 15 Dec 2016 17:54:13 +0000 https://www.lebigdata.fr/?p=3101 Le métier de data scientist a été surnommé par Harvard Business Review comme « le plus sexy du 21e siècle » en …

Cet article Data science : apprendre la discipline en 8 étapes avec DataCamp a été publié sur LeBigData.fr.

]]>
Le métier de data scientist a été surnommé par Harvard Business Review comme « le plus sexy du 21e siècle » en 2012 et « le meilleur emploi de l’année » en 2016 par Glassdoor. Data Camp a dévoilé une infographie qui résume la façon d’apprendre la data science en 8 étapes. 

Un métier encore méconnu

La position vis-à-vis de la data science a considérablement évolué au cours de ces quatre dernières années. En 2012, la majorité des articles visaient à expliquer le rôle du data scientist et son activité exacte. À l’époque, une recherche Google de « comment devenir un data scientist » montrait que ce concept pouvait avoir un grand nombre de significations. En 2016, c’est toujours le cas, la recherche donne toujours une variété d’articles présentant différentes opinions sur le sujet. Mais la majorité des articles se concentrent à expliquer les raisons pour lesquelles les data scientists sont des leaders et sont indispensables aux entreprises en pleine transformation digitale.

Ils sont très importants, car il existe très peu de data scientists répondant aux attentes des entreprises à ce jour, bien que la définition de ce métier ne soit pas encore fixe. Les offres d’emploi montrent que les sociétés recherchent des personnes ayant des compétences en communication, de la créativité, de l’intelligence, de la curiosité, de l’expertise technique et bien d’autres atouts. Souvent, en regardant les compétences requises, il est possible de penser que la data science est un secteur est peine perdue. 

Avec plus de demande que d’offre, l’attention que l’on porte aux équipes de data scientists est à la hausse. Cette demande pose une fois de plus la question de ce qu’est réellement la data science.

setwidth700-data-scientist

De nombreuses compétences requises

Tout comme la définition de data scientist, la définition de la data science a également de multiples facettes. En effet, il existe beaucoup de conseils pour les personnes voulant apprendre la data science. Évidemment, il n’existe pas de définition précise puisque cela dépend fortement de l’industrie et du contexte. Pour en savoir plus, il suffit de se référer à l’infographie “Become a Data Scientist in 8 Steps” crée par la société DataCamp, qui donne un aperçu des huit étapes à suivre pour devenir un data scientist. Certaines étapes peuvent être plus faciles que d’autres pour certains, en fonction de l’expérience. Cette infographie peut aussi bien s’adresser aux novices, aux informaticiens voulant travailler dans la data et même aux équipes de data scientists.

Pour faire court, il faut devenir compétent en statistiques, en mathématiques et en machine-learning, apprendre à coder, comprendre les bases de données, explorer le flux de travail de la data science et acquérir des compétences en Big Data. L’infographie conseille également de rejoindre des compétitions, rencontrer d’autres data scientists, suivre chaque tendance sur les réseaux sociaux et médias spécialisés. 

De plus, des connaissances de SQL, des langages Python, Java et R sont généralement requises. Contrairement aux spécialistes de l’analyse prédictive doivent savoir utiliser les bases de Python, un data scientist doit être capable de construire ses propres outils sur Python sans être limité à une ou deux bibliothèques. La connaissance de Python est l’une des qualités les plus importantes pour le recrutement. Ainsi, un apprenti data scientist n’ayant pas de connaissances en Java ou en C++ pourront se contenter d’une expérience en Python.

Une expérience en machine-learning est également appréciable pour le recrutement d’un data scientist. De plus en plus de développeurs comme Microsoft, Google ou Salesforce ajoutent du machine-learning à leurs applications. Les profils d’étudiants les plus recrutés sont des étudiants en mathématiques, statistiques, science informatiques, neurosciences, biologie ou psychologie informatique. Pour ceux qui n’ont pas eu la chance d’étudier dans ces domaines, il existe également de bons programmes proposant une formation intensive focalisée sur des compétences spécifiques. On pense notamment à Kaggle, proposant aux data scientists de s’affronter sur des problèmes complexes à résoudre avec également la possibilité de travailler sur des projets réels en collaboration.

Voici l’infographie réalisée par DataCamp :

data-scientist

Cet article Data science : apprendre la discipline en 8 étapes avec DataCamp a été publié sur LeBigData.fr.

]]>
https://www.lebigdata.fr/data-science-etapes-1512/feed 1
Amazon utilise les données de ses clients pour ouvrir une librairie https://www.lebigdata.fr/amazon-utilise-les-donnees-de-ses-clients-pour-ouvrir-une-librairie0411 Wed, 04 Nov 2015 10:49:01 +0000 https://www.lebigdata.fr/?p=954 La société fondée par Jeff Bezos a ouvert hier une librairie à Seattle. Si à première vue rien ne semble …

Cet article Amazon utilise les données de ses clients pour ouvrir une librairie a été publié sur LeBigData.fr.

]]>
La société fondée par Jeff Bezos a ouvert hier une librairie à Seattle. Si à première vue rien ne semble la différencier d’une boutique classique, le géant du e-commerce s’est basé sur les données numériques de ses clients pour établir sa sélection de livres.

Difficile de croire que l’entreprise qui a entamé il y a plus de 20 ans une révolution du commerce en ligne, accusé par beaucoup d’avoir condamné le marché physique du livre, ouvre sa première librairie.

Mais si sa boutique, inaugurée hier à Seattle n’a d’apparence rien de révolutionnaire, elle compte se différencier grâce à une sélection d’ouvrages habillement choisi à l’aide du Big Data.

Amazon s’est en effet appuyé sur une masse énorme de données récoltées sur ses clients au fil de son existence. Ainsi, le but est d’optimiser un espace plutôt réduit (pas plus de 600 mètres carrés) en proposant les ouvrages ayant retenu les meilleurs commentaires des internautes. L’un d’entre eux est d’ailleurs présent en dessous de chaque article.

Commentaire d'un internaute présent en dessous de chaque ouvrage de la boutique
Commentaire d’un internaute présent en dessous de chaque ouvrage de la boutique

Les données proviennent également des avis émis par les lecteurs à travers le système des étoiles. Il est possible de noter chaque livre sur le site internet en lui attribuant jusqu’à cinq étoiles.

Remplir les rayons des magasins grâce à l’analyse prédictive

Cette utilisation du big data dans le marché « physique » ouvre des perspectives énormes. Les données récoltées peuvent être appliquées à l’échelle mondiale mais l’entreprise peut aussi se borner à connaître les préférences des consommateurs dans un pays, une région ou une ville. Le contenu du magasin pourrait être adapté aux exceptions et préférences de chaque zone géographique. Concrètement, grâce à l’analyse prédictive, Amazon sera capable de proposer les ouvrages les plus susceptibles d’intéresser les clients à Seattle voir même dans le quartier ou est présente sa boutique.

Si l’entreprise américaine n’a pas souhaité préciser si cette ouverture sera un cas isolé ou au contraire la première d’une longue série, difficile d’imaginer que Jeff Bezos et ses équipes ne profitent pas des possibilités offertes par le Big Data pour s’exporter en dehors de leur fief.

A noter que chez Amazon, le numérique n’est jamais très loin. Une fois rentré dans la boutique, on se rend compte qu’à la différence d’une librairie classique, les livres sont présentés non par la tranche mais par la couverture. Ajouter le commentaire d’internaute et la notation en étoile, la comparaison avec une page internet est frappante.

L'intérieur de la boutique Amazon books à Seattle
L’intérieur de la boutique Amazon books à Seattle

Enfin, il semble important de rappeler que le fait d’utiliser les données numériques du commerce en ligne pour la vente en magasin n’a pas été initié par Amazon. En effet, le vendeur de chaussures en ligne Spartoo, acteur incontournable du e-commerce en France et en Europe avec ses 2,5 millions de paires vendues l’année dernière a ouvert sa première boutique dans le centre-ville de Grenoble en début d’année 2015. La société s’est évidemment basé sur la connaissance intime de ses clients pour remplir son magasin.

Boutique de chaussure ouverte par l'entreprise de e-commerce Spartoo
Boutique de chaussure ouverte par l’entreprise de e-commerce Spartoo

 

Source : lesechos.fr

Cet article Amazon utilise les données de ses clients pour ouvrir une librairie a été publié sur LeBigData.fr.

]]>