Arthur Letang – LeBigData.fr https://www.lebigdata.fr Le magazine du Big Data et du Cloud Computing Fri, 07 Dec 2018 16:29:30 +0000 fr-FR hourly 1 Pour rattraper Amazon, Oracle double le prix de ses licences sur AWS https://www.lebigdata.fr/oracle-aws-concurrence-0202 Thu, 02 Feb 2017 14:37:38 +0000 https://www.lebigdata.fr/?p=3601 Oracle a récemment annoncé un changement de facturation pour les utilisateurs de Amazon Web Services. Ce changement aura un impact sur les …

Cet article Pour rattraper Amazon, Oracle double le prix de ses licences sur AWS a été publié sur LeBigData.fr.

]]>
Oracle a récemment annoncé un changement de facturation pour les utilisateurs de Amazon Web Services. Ce changement aura un impact sur les affaires des clients d’AWS, car le service sera deux fois plus cher.

Jusqu’à présent, chaque processeur virtuel d’AWS était facturé pour un demi-coeur. La donne a changé, le nouvelle politique de licence Cloud d’Oracle précise désormais qu’un vCPU AWS sera considéré comme un coeur complet si l’hyper-threading n’est pas activée. Un hyper-threading consiste à créer deux processus logiques sur une seule puce. L’utilisateur d’un vCPU AWS devra donc acquérir deux licences pour faire fonctionner son système.

Cette augmentation des prix a pour but de rendre le Cloud d’Oracle plus attractif par rapport à ses concurrents. Cela n’est pas étonnant lorsque l’on sait que l’entreprise avait désigné AWS comme son concurrent principal. En rachetant NetSuite pour 9 milliards de dollars, Oracle avait pour objectif de devenir l’un des leaders dans le Cloud.

Une stratégie focalisée sur la concurrence

L’entreprise avait en effet assuré que son Cloud serait rapidement moins cher et plus performant que celui d’AWS. Ces nouvelles conditions d’utilisation rééquilibrent donc le marché en favorisant Oracle par rapport à AWS, aux yeux des entreprises intéressées par des services Cloud. Jusqu’à ce jour, l’offre LaaS de Oracle était largement distancée par des leaders tels que AWS, Microsoft ou encore Google.

En septembre 2016, la société prévoyait déjà de barrer la route à AWS en effectuant de nombreuses comparaisons entre sa technologie et celle d’AWS. Par exemple, la société démontrait que son application Oracle DB était 24 fois plus rapide sur son Cloud que sur AWS. Cela implique donc que ce qui est réalisable en 24 heures sous AWS sera réalisé en moins d’une heure sur le Cloud d’Orale.

Oracle n’a pas encore fait de déclaration à propos du sort de ses clients qui ont une base de données Oracle déployée sur AWS. Cette nouvelle politique met Azure et AWS au même niveau, car Azure n’a déjà plus recours à l’hyper-threading des processeurs Intel.

Avec ces changements radicaux, le fournisseur de solutions Cloud compte creuser de plus en plus l’écart avec ses concurrents, quitte à rendre insatisfaits une partie de ses clients.

Cet article Pour rattraper Amazon, Oracle double le prix de ses licences sur AWS a été publié sur LeBigData.fr.

]]>
[Startup Tour] Pachyderm, une alternative au célèbre Hadoop pour le traitement de données https://www.lebigdata.fr/pachyderm-startup-data-2701 Fri, 27 Jan 2017 18:33:07 +0000 https://www.lebigdata.fr/?p=3538 Joe Doliner est le CEO de la startup Pachyderm. Son objectif est proposer une alternative aux logiciels open source permettant …

Cet article [Startup Tour] Pachyderm, une alternative au célèbre Hadoop pour le traitement de données a été publié sur LeBigData.fr.

]]>
Joe Doliner est le CEO de la startup Pachyderm. Son objectif est proposer une alternative aux logiciels open source permettant de gérer et traiter des données.

La technologie de Pachyderm est implémentée dans GO puis déployés sur Kubernetes. Ce déploiement permet de programmer le code conteneurisé de l’utilisateur dans l’environnement qui gère et traite les données. Pour faciliter le déploiement de Pachyderm sur tous les Clouds, les données peuvent être stockées dans des magasins d’objets comme S3, Azure Blob Storage, Google Cloud Storage, etc.

Une solution qui permet de traiter et gérer des masses de données

« De nos jours, un logiciel ne fonctionne pas vraiment, à moins que l’utilisateur s’en serve dans un contexte particulier » déclare Joe Doliner. Pachyderm propose un Data Lake, un système permettant de stocker et de traiter de très grands ensembles de données. Pachyderm dispose de deux caractéristiques généralement absentes dans les Data Lakes.

Le système est conteneurisé, ce qui veut dire que lorsqu’un utilisateur veut traiter des données, il a juste à créer un conteneur avec son code et Pachyderm s’occupera du reste. C’est un avantage pour les data scientists, car ils peuvent procéder à un Big Data avec touts les outils open source qu’ils connaissent déjà.

Cette méthode permet aux data scientists de comprendre l’évolution des données et d’où elles viennent. « À chaque fois que des données passent par Pachyderm, nous enregistrons ce processus pour savoir d’où les nouvelles données sont venues et à partir de quel code cela a été exécuté ». Cette information appelée « data provenance » est très utile pour les data scientists. Cela leur permet d’avoir un résultat dans un contexte pour le reproduire ou l’adapter à un autre projet.

Pachyderm iot data

Des secteurs et clients très ciblés

Pachyderme est une startup focalisée sur deux secteurs, les fonds spéculatifs et les chercheurs en génomique. Ils font des choses très différentes avec les données, mais utilisent souvent les mêmes outils « Nous préférons nous focaliser sur des entreprises en particulier plutôt que de cibler des marchés. Par exemple, les entreprises qui officient beaucoup dans le machine-learning sont parfaites pour nous, car elles utilisent des outils comme Tensorflow ou Torch ».

En effet, ces outils peuvent être conteneurisés et ne s’ingèrent pas facilement dans d’autres systèmes. Connaître la provenance des données est de plus en plus intéressants, les utilisateurs ont besoin de comprendre les données utilisées pour former les algorithmes. L’Union Européene vient d’ailleurs de voter une loi obligeant à donner une explication à propos des décisions prises par les algorithmes.

Parmi ses clients, Pachyderm compte General Fusion, une société qui développe le premier réacteur à fusion commercial. « Lorsque l’entreprise a été créée, cela paraissait physiquement impossible. Ils ont majoritairement réalisé des expériences sur le plasma pour comprendre comment créer des réacteurs à  fusion stables »

Les mesures de ces expériences ont été enregistrées dans le Pachyderm File System (PFS) où elles ont été photographiées par un système de contrôle de version. Le contrôle de versions permet aux clients de la société de gérer les changements dans leurs ensembles de données. Les clients utilisent également Pipeline Pachyderm System (PPS) pour comprendre des données encore plus obscures. « L’avantage d’un système conteneurisé est que nous n’avons pas à nous soucier des calculs que nos clients effectuent ». Pachyderm travaille également avec des sociétés spécialisées dans le trading, le marketing automatisé et l’immobilier.

Pachyderm est plus simple que Hadoop

Le principal concurrent de Pachyderm est l’écosystème de Hadoop « C’est un gigantesque écosystème avec beaucoup d’outils puissants, mais il peut être très coûteux. Nous aimons positionner Pachyderm comme une solution plus simple et alternative ». Pachyderm ne traite pas le même nombre d’usages, mais elle couvre des verticaux importants. Dans Hadoop, il sera possible de faire de 10 façons ce qui est proposé de manière simple dans Pachyderm.

« Notre objectif majeur en 2017 est de rester en contact avec nos utilisateurs. Pachyderm est un projet très jeune sur lequel nous avons eu un élan de popularité fin 2016 et en ce début d’année ». Au fur et à mesure de l’avancée du projet et de l’utilisation croissante de la solution, les utilisateurs découvrent des bugs. Joe Doliner compte également se focaliser sur ces bugs en 2017. « Je voudrais voir Pachyderm stable et traiter plus d’un téraoctet de données par jour »

Pachyderm iot data interview

Etre honnête avec moi même. La plupart des fondateurs qui échouent se sont en quelque sorte trompés. Ils pensent que le marché va vouloir de leur produit et pensent que les gens seront disposés à payer avec un peu de volonté. C’est compliqué, car vous avez absolument besoin d’y croire pour réussir. Vous devez penser que le marché sera intéressé par votre produit, mais vous devez avoir raison.

Vous devez donc être sceptique et y croire en même temps, en permanence. Le doute vous permettra d’aller chercher des preuves de la viabilité de votre projet auprès du monde réel. Cela amènera, pas exemple, à aller chercher dix personnes affirmant être en mesure de payer pour un votre service. Arrive ensuite le développement d’un prototype et une tentative de vente pour voir s’ils disaient vrai. Si ces deux étapes ne fonctionnent pas, il vaudra mieux revoir votre stratégie et votre produit. Il faut bien faire la différence entre ce que disent les personnes autour de vous et la réalité.

Pachyderm iot data interview

Le plus difficile pour moi a été de rester concentré et motivé sans patron. Lorsque j’ai crée Pachyderm, je craignais de perdre mon temps sur les mauvaises choses ou de ne pas assez travailler sans pression externe. Je n’ai pas pris en compte ce problème avant de commencer, j’ai juste commencé. La motivation personnelle est aussi efficace que celle donnée par une personne ayant le pouvoir de vous congédier. Mes employés sont ma seule motivation, car ils sont le reflet de mon travail, je sais ce que je fais maintenant. La rétroaction sociale est très importante pour moi.

Pachyderm iot data interview

Dans le cadre du Big Data, c’est comme sur la plupart des marchés. Vous devez comprendre la valeur de votre produit, trouver des clients en mesure de payer pour cette valeur et faire tout ce qui est en votre pouvoir pour les satisfaire. Par exemple, sur le marché de l’IoT, trop d’entrepreneurs voient le marché comme une opportunité en suivant aveuglément la tendance. Il faut toujours trouver quelque chose de différent et ne pas suivre les autres.

Pachyderm iot data interview

Y Combinator est le meilleur pari à faire, surtout si vous êtes débutant et que vous n’avez personne à écouter.

Pachyderm iot data interview

Cet article [Startup Tour] Pachyderm, une alternative au célèbre Hadoop pour le traitement de données a été publié sur LeBigData.fr.

]]>
[Startup Tour] Graphcore veut rendre le machine-learning plus rapide grâce à son IPU https://www.lebigdata.fr/graphcore-machine-learning-2001 Fri, 20 Jan 2017 17:21:04 +0000 https://www.lebigdata.fr/?p=3467 Nigel Toon est le CEO de la startup américaine Graphcore. Son objectif est de rendre le machine-learning plus rapide, plus …

Cet article [Startup Tour] Graphcore veut rendre le machine-learning plus rapide grâce à son IPU a été publié sur LeBigData.fr.

]]>
Nigel Toon est le CEO de la startup américaine Graphcore. Son objectif est de rendre le machine-learning plus rapide, plus simple et plus intelligent.

Graphcore est à l’origine de nouveaux processeurs à destination des innovateurs cherchant à développer le potentiel humain grâce au machine learning et à la technologie de l’intelligence artificielle.

« Simon Knowles et moi réfléchissons depuis 5 ans sur les défis fondamentaux au niveau des charges de travail du machine-learning, qui sont complètement différentes des autres types d’informatique » déclare Nigel Toon.

Graphcore veut fixer un nouveau rythme d’innovation

Précisément, la startup s’attelle depuis trois ans à construire la meilleure équipe pour être capable de repenser les processeurs, dans le but de développer des solutions complètement différentes. Graphcore est la première startup à proposer un processeur spécialement conçu pour les charges de travail du machine-learning. Ce produit est un Intelligent Processing Unit (IPU) avec lequel la société a l’ambition de fixer un nouveau rythme d’innovation.

« Nous sommes sortis de la discrétion en octobre 2016, mais nous avions commencé à explorer cette idée longtemps avant cela » ajoute Nigel Toon.

La technologie de Graphcore est focalisée sur les IPU, qui fournissent un parallélisme de calcul efficace et massif, en corrélation avec une grande bande passante de mémoire. « Ces deux caractéristiques sont essentielles pour passer à la prochaine dans la puissance du traitement graphique, ce dont nous avons besoin pour le machine-learning » précise Nigel Toon. Pour le CEO, l’intelligence est l’avenir de l’informatique et le traitement des graphiques est une charge de travail de calcul sous-jacent.

La mission de Graphcore est de rendre le machine-learning plus rapide, plus simple et plus intelligent. Sa technologie a pour but d’accélérer et réduire les coûts des applications d’intelligence artificielle dans le Cloud. Cette même technologie apportera un calcul d’intelligence artificielle efficace pour les futures voitures autonomes et autres appareils grand public à faible consommation.

Une solution destinée à tous les secteurs

Graphcore vise l’ensemble de l’écosystème de l’IoT et du Big Data en ayant développé une plateforme hardware et software convenant à n’importe quelle entreprise, tous secteurs confondus, cherchant à mettre en oeuvre le machine-learning dans leurs produits et services. Ses clients incluent les géants de l’Internet, les entreprises de Cloud Computing ainsi que les secteurs en avance sur la courbe du machine-learning comme la finance, l’automobile et la fabrication par de biais de startups spécialisées dans l’intelligence artificielle.

« L’intelligence de la machine a une charge de travail de calcul très différente de ce qui s’est fait avant. Elle a donc besoin d’une nouvelle approche ». L’une des questions fondamentales abordées par Graphcore est de construire des processeurs hautement parallèles avec des outils et des bibliothèques beaucoup plus rapides, plus flexibles et plus faciles à utiliser, afin que les développeurs puissent explorer plusieurs approches en termes d’intelligence de la machine pour s’écarter de ce qui avait été fait auparavant.

En 2017, Nigel espère voir son produit sur le marché et voir ses clients travailler avec son appareil IPU. En 2016, Graphcore levait 30 millions de dollars en série A avec des investisseurs stratégiques tels que Bosch, Samsung et des sociétés de capital-risque de la Silicon Valley (Foundation Capital), du Royaume-Uni (Amadeus & Draper Esprit, C4 Ventures) et d’Israël (Pitango Ventures).

graphcore iot machine learning

graphcore iot machine learning interview startup data cloud

Entourez-vous de la meilleure équipe et de la plus intelligente que vous pouvez.

graphcore iot machine learning interview startup

Nous avons construit une équipe d’environ 50 des meilleurs ingénieurs en logiciels au monde au cours des 2 dernières années. Nous avons principalement recruté des personnes avec qui nous avions travaillé auparavant. Nous avons également attiré un groupe d’investisseurs renommé. Rien de tout cela n’a été facile.

graphcore iot machine learning interview startup data

En tant que startup, vous devez penser différemment à propos de l’analyse SWOT de votre entreprise. Vous devrez faire face à de nombreuses faiblesses et menaces. Vous devez donc faire une percée d’ensemble et vous concentrer sans relâche sur les meilleures opportunités.

graphcore iot machine learning interview

Construire la meilleure équipe.

graphcore iot machine learning interview startup

Il n’est pas suffisant d’avoir juste une technologie disruptive dans un marché en croissance. Vous devez montrer aux investisseurs que vous pouvez développer un produit à l’échelle de la société.

graphcore iot

Cet article [Startup Tour] Graphcore veut rendre le machine-learning plus rapide grâce à son IPU a été publié sur LeBigData.fr.

]]>
Analyste d’affaires : une discipline à mi-chemin entre l’IT et la gestion de projet https://www.lebigdata.fr/analyste-daffaires-metier-1601 Mon, 16 Jan 2017 16:27:56 +0000 https://www.lebigdata.fr/?p=3413 Pour comparer avec un data scientist, se consacrant à la découverte des données, un analyste d’affaires (ou business analyst) assure …

Cet article Analyste d’affaires : une discipline à mi-chemin entre l’IT et la gestion de projet a été publié sur LeBigData.fr.

]]>
Pour comparer avec un data scientist, se consacrant à la découverte des données, un analyste d’affaires (ou business analyst) assure les tâches stratégiques à mi-chemin entre toutes les autres fonctions. Retour sur l’une des compétences les plus recherchées par les grandes entreprises.  

Concrètement, il intervient dans la gestion de projets et dans les technologies de l’information. Au début d’un projet, un analyste d’affaires identifie, définit, analyse et documente les besoins. Il est le garant de la réussite d’un projet par rapport aux exigences d’affaires et aide à déterminer les projets prioritaires. Son rôle est de montrer ce que le produit devra faire, et non comment il va le faire, contrairement au chef de projet. 

Évolution de la profession

Le métier d’analyste d’affaires est apparu dans les années 70, mais avec l’apparition des nouvelles technologies et de l’analyse de données, il est devenu de plus en plus important. Le marché impose aujourd’hui des délais d’exécution plus rapides, des solutions plus efficaces et un retour sur investissement davantage contrôlé. Au fur et à mesure de l’évolution, les entreprises ont du séparer l’analyse d’affaires du développement informatique, il fallait un pont entre ces deux disciplines.

Malgré tout, le métier est toujours en cours de définition aujourd’hui. Les chefs de projets et les analystes d’affaires sont alliés sur des projets de grande ampleur. L’un gère la gestion du projet tandis que l’autre se focalise sur les besoins d’affaires. Un analyste d’affaires est celui qui permet aux équipes techniques de comprendre les besoins avant de commencer à créer la solution.

Le rôle d’un analyste d’affaires

La compétence principale d’un analyste d’affaires est de parler à la fois le langage informatique et le langage d’affaires. Il est en réalité le pont entre ces deux domaines. Les documents qu’il fournit sont le support de travail pour le rôle du développement informatique.

Un analyste d’affaires occupe un poste important dans l’entreprise, puisqu’il agit pour persuader de son point de vue avec diplomatie. En comparaison avec un gestionnaire de projets qui a une vue d’ensemble, un analyste d’affaires doit être à cheval sur les détails et comprendre chaque problème. Il a la capacité d’intervenir sur différents pôles de l’entreprise tout en gardant son indépendance.

Pour comprendre la place de l’analyste d’affaires au sein de l’entreprise, il faut savoir qu’il s’agit d’un métier très récent. Il peut être affilié au département informatique, au bureau des projets ou encore dispersé dans différents services. Quoi qu’il arrive, un analyste d’affaires sera amené à sortir de la sphère informatique. Souvent, il faut débuter par des projets simples sans outils, en faisant des sondages et de la recherche d’information classique. Ensuite, sur des projets plus importants, il aura accès à des outils se rapprochant du Big Data, comme la modélisation ou la technique UML.

Etre un analyste d’affaires, c’est avoir de l’expérience. Ainsi, ils sont pour la plupart salariés dans de grosses entreprises dans des secteurs comme les assurances, la finance, les télécoms, et le gouvernement, dont le siège social se situe dans de grandes villes. Selon des sondages, la profession serait légèrement plus féminine que masculine. Les femmes sont généralement issues du milieu des affaires alors que les hommes viennent de l’informatique. L’âge moyen des personnes exerçant ce métier est de 35 à 40 ans.

analyste d'affaires données metier it

Processus d’identification et d’analyse

Lorsqu’un projet est sur le point d’être lancé, un analyste d’affaires doit identifier les exigences d’affaires comme les cas d’usages, les spécifier et les documenter. Il doit récolter les exigences des clients, utilisateurs et actionnaires grâce à des données, des entrevues, des études et des feedbacks. 

Une fois récoltées, ces données sont analysées dans le but d’être structurées. Pour cela, l’analyste d’affaires traduit les besoins d’affaires en modèles, étudie la faisabilité des exigences et analyse les risques et les contraintes pour établir des priorités. Un analyste d’affaires doit ensuite spécifier la faisabilité de chaque exigence en fonction de sa complexité, des performances attendues, son niveau de priorisation ou encore son urgence.

Ayant participé à mettre la solution sur pied, il doit suivre et valider chaque étape du développement de la solution. Après le déploiement de la solution, l’analyste d’affaires devra redéfinir les exigences d’affaires lors d’éventuels changements et mises à jour.

analyste d'affaires données metier

Compétences requises et salaire

Pour en savoir davantage sur le métier de d’analyste d’affaires, il est nécessaire de revenir sur les compétences requises. Un analyste d’affaires doit connaître les méthodes d’analyse des processus organisationnels, posséder une bonne capacité de rédaction, connaître les techniques de modélisation des données, être familiarisé avec les systèmes d’information, connaître les systèmes de gestion et de planification stratégique.

Hors des compétences techniques, un analyste d’affaires doit avoir de grandes qualités relationnelles, en matière de diplomatie, en approche client, en termes de travail en équipe, prendre des initiatives, être capable d’influencer, etc. Pour atteindre le poste d’analyste d’affaires, il faudra bénéficier de quelques années d’expérience dans le monde professionnel. À mi-chemin entre les affaires et l’informatique, un diplôme universitaire en gestion ou en informatique pourra être demandé. Parfois, une maîtrise ou un doctorat en informatique ou en gestion sera nécessaire. 

En plus de ces diplômes, il sera souvent demandé d’avoir au moins trois ans d’expérience sur le marché du travail et de maîtriser les outils d’analyse de données et de modélisation. Le salaire médiant d’un analyste d’affaires peut être compris entre 35.000 et 75.000 euros par an.

analyste d'affaires données

En 2003, alors que la discipline commence à prendre de l’ampleur, 28 membres fondateurs issus de 21 entreprises dans 8 pays différents ont créé l’IIBA (International Institute of Business Analysis). Il s’agit d’une association indépendante à but non lucratif servant les intérêts des analystes d’affaires. Leurs objectifs sont de développer des standards internationaux pour la pratique et la certification de l’analyste d’affaires, défendre la reconnaissance des analystes d’affaires certifiés, faire passer les certifications ou encore fournir des outils de communication pour que les analystes d’affaires puissent échanger. En 2006, l’IIBA inaugurait la première certification professionnelle en analyse d’affaires : le Certified Business Analysis Professionnal (CBAP).

À ce jour, le métier d’analyste d’affaires est en majorité développé dans le secteur de la finance. Exerçant à métier « à la mode », un analyste d’affaires devient de plus en plus indispensable. En effet, ce métier ne cessera de changer en même temps que l’évolution des technologies de l’information. Une chose est sûre, c’est un nouveau métier qui n’est pas prêt de disparaître.

Cet article Analyste d’affaires : une discipline à mi-chemin entre l’IT et la gestion de projet a été publié sur LeBigData.fr.

]]>
CES 2017 : Seagate et DJI renforcent le stockage de données pour les drones https://www.lebigdata.fr/dji-drone-ces-0401 Wed, 04 Jan 2017 20:02:07 +0000 https://www.lebigdata.fr/?p=3336 Dans le cadre du CES 2017, DJI et Seagate ont annoncé un partenariat stratégique pour renforcer les solutions de stockage …

Cet article CES 2017 : Seagate et DJI renforcent le stockage de données pour les drones a été publié sur LeBigData.fr.

]]>
Dans le cadre du CES 2017, DJI et Seagate ont annoncé un partenariat stratégique pour renforcer les solutions de stockage de donnés dans l’univers des drones.

DJI est le fabricant leader sur le marché des drones, tandis que Seagate Technoology est l’un des leaders mondial des solutions de stockage de données. Les deux sociétés ont choisi le CES de Las Vegas pour annoncer leur nouveau partenariat stratégique. Ensemble, ils ont pour projet de proposer des solutions aux problèmes rencontrés en termes de besoins de données pour les utilisateurs de drones.

L’évolution du marché nécessite davantage de moyens de stockage

dji data

Avec l’augmentation de la résolution des caméras embarquées, l’analyse d’image par la computer vision et l’augmentation de la durée de vol des drones, les deux sociétés ont la volonté de stocker, gérer, et partager de manière efficace et en toute sécurité des centaines de milliers de giga-octets de données générées par des drones lors d’une seule utilisation.

« L’entreprise DJI est fière de développer des avancées technologiques dans le secteur des drones, et nous sommes ravis de pouvoir collaborer avec Seagate pour mettre au point des solutions innovantes pour gérer les flux de données croissants générés par nos produits les plus sophistiqués », a précisé Michael Perrydirecteur des partenariats stratégiques de DJI. En effet, l’expertise des deux entreprises dans leurs domaines respectifs permettront aux clients de DJI de disposer de davantage de moyens intelligents, efficaces et fiables pour gérer leurs besoins en constante croissance, au fur et à mesure de l’évolution du marché.

dji data seagate

Les drones à la pointe de la technologie comme le nouveau modèle DJI Inspire 2 enregistrent des vidéos 5,2 K. Des caméras haute résolution exigent des solutions plus efficaces en matière de déchargement, lecture, partage et sauvegarde de rushes. Ce partenariat entre le constructeur de drones et Seagate a pour but premier de simplifier chaque étape des flux de données.

« Seagate se réjouit à l’idée de pouvoir collaborer avec DJI afin de répondre aux besoins en constante évolution et uniques des utilisateurs de drones » a indiqué Tim Bucher, vice-président senior de Seagate et des solutions LaCie. LA première collaboration concrète entre les deux sociétés sera annoncée au cours de l’année.

Cet article CES 2017 : Seagate et DJI renforcent le stockage de données pour les drones a été publié sur LeBigData.fr.

]]>
CES 2017 : pourquoi l’intelligence artificielle sera au centre de l’attention https://www.lebigdata.fr/intelligence-artificielle-ces-0301 Tue, 03 Jan 2017 15:46:54 +0000 https://www.lebigdata.fr/?p=3312 L’intelligence artificielle est partout, elle sera sans aucun doute l’une des plus grandes tendances de l’année 2017 au service du …

Cet article CES 2017 : pourquoi l’intelligence artificielle sera au centre de l’attention a été publié sur LeBigData.fr.

]]>
L’intelligence artificielle est partout, elle sera sans aucun doute l’une des plus grandes tendances de l’année 2017 au service du Big Data. A partir de cette semaine, à l’occasion du CES 2017 à Las Vegas, de nombreux produits utilisant l’intelligence artificielle seront annoncés.

L’intelligence artificielle, une technologie mûre

Dans l’actualité du Big Data et de l’IoT, des éléments liés à l’intelligence artificielle et au machine-learning reviennent constamment et de plus en plus. Des entreprises développent des systèmes d’intelligence artificielle qui détermine lorsque l’utilisateur est chez lui afin d’ajuster l’éclairage, les caméras de sécurité, l’alarme de la porte ou encore le chauffage automatique. L’une des références en la matière est le thermostat de Nest, qui comprend déjà certaines de ces fonctionnalités, mais peu de maisons sont entièrement équipées d’une intelligence artificielle reliée à tous les objets.

D’autres références telles que les assistants virtuels d’Amazon et Google, ainsi que les récents assistants LG et Lenovo, dévoilés dans le cadre du CES, sont également de plus en plus nombreuses. Les chatbots sont certainement les produits IA les plus répandus à ce jour, mais également les plus visibles puisqu’il s’agit de leur fonction première. Un nombre impressionnant de produits utilisent l’intelligence artificielle pour un usage encore plus complet.

ces iot

De plus en plus de robots répondants à des commandes vocales sont disponibles, par exemple ceux de la société iRobot ou encore Pepper de Aldebaran Robotics, qui accueille les clients dans les plus grandes enseignes du pays. Avec une grande avance dans le secteur des appareils électroménagers connectés, il ne serait pas étonnant de voir de nouveaux produits intégrant de l’IA chez Dyson.

ces iot las vegas

De même, les constructeurs automobiles semblent annoncer de plus en plus de nouvelles fonctionnalités basées sur l’intelligence artificielle. Ford n’a d’ailleurs pas tardé à annoncer sa nouvelle voiture autonome Ford Fusion Hybrid, à quelques jours du CES de Las Vegas. En effet, cette édition comptera un nombre impressionnant de voitures totalement autonomes, avec lesquelles le conducteur n’aura plus besoin d’interagir.

Le machine-learning devient une réalité

On explique ces changements soudains, car les plateformes pour concevoir des intelligences artificielles ne sont plus un secret pour la plupart des développeurs. De plus, le machine-learning est aujourd’hui convaincant et utile sur une base quotidienne. Les chatbots comprennent de mieux en mieux les utilisateurs grâce à un meilleur traitement du langage naturel et des technologies de reconnaissance vocale.

Intelligence artificielle pour entreprise : une aide à la décision essentielle ?

Bien que l’intelligence artificielle existe depuis le début des années 2000, les consommateurs commencent à en percevoir la valeur seulement aujourd’hui avec l’avancée de la technologie et des mentalités, les plateformes disponibles et la réduction des coûts. Bien que de nombreux problèmes persistent dans l’utilisation des données et au niveau de la cybersécurité, les robots dotés d’intelligence artificielle à un stade « avancé » sont déjà parmi nous. Le marché n’aura pas attendu une forme précise d’intelligence artificielle avant de tenter de la mettre entre les mains du consommateur. Maintenant, il faudra l’améliorer.

Cet article CES 2017 : pourquoi l’intelligence artificielle sera au centre de l’attention a été publié sur LeBigData.fr.

]]>
Transfer Learning : réaliser de meilleures prédictions avec peu de données https://www.lebigdata.fr/transfer-learning-analytique-0201 Mon, 02 Jan 2017 18:10:23 +0000 https://www.lebigdata.fr/?p=3290 Le Transfer Learning vise à transférer des connaissances d’une ou plusieurs tâches sources vers une ou plusieurs tâches cibles. Avec cette …

Cet article Transfer Learning : réaliser de meilleures prédictions avec peu de données a été publié sur LeBigData.fr.

]]>
Le Transfer Learning vise à transférer des connaissances d’une ou plusieurs tâches sources vers une ou plusieurs tâches cibles. Avec cette technique, il est possible d’appliquer des données apprises à partir de tâches antérieures sur de nouvelles tâches ou domaines partageant des similitudes.

Lorsque Donal Trump a déclaré sa candidature pour devenir président, la plupart des analystes avaient prédit qu’il avait une chance infiniment petite d’y arriver. L’analyse la plus représentative fut celle de Nate Silver pour FiveThirtyEight. Il a estimé que Donald Trump avait 2% de chances de gagner la présidentielle. Cette estimation était basée sur de nombreuses données historiques concernant les anciens candidats, leur origine, et leurs succès et échecs passés. Il est donc clair qu’il est compliqué de tirer des prédictions claires de données historiques comme celles-ci. 

transfer learning iot

Les analystes politiques utilisent les sondages pour estimer la probabilité du succès d’un candidat. Cependant, les sondages ne sont pas parfaits et souffrent généralement de plusieurs types de préjugés. Pour surmonter ces obstacles, les statisticiens politiques construisent des modèles pour tenter de corriger les erreurs de sondage en utilisant les données des élections précédentes. Cette méthode est basée sur l’hypothèse que les sondages actuels et historiques souffrent du même type d’erreurs.

Puisque les élections présidentielles sont des événements rares, les données historiques sont limitées. En d’autres termes, les données sont relativement petites et dépassées.

Mieux comprendre les phénomènes économiques et sociaux

Les statisticiens du secteur privé font face à des problèmes semblables lorsqu’il s’agit de prédire des événements inattendus ou lorsqu’ils travaillent à partir de données erronées ou incomplètes. Il ne suffit pas de renvoyer tout le travail vers les machines. La plupart des techniques de machine-learning et l’exploitation statistique supposent que les données historiques utilisées pour former le modèle du machine-learning se comportent de la même manière que les données cibles auxquelles le modèle a été appliqué ultérieurement. Cette hypothèse ne tient souvent pas la route parce que les données sont obsolètes. De plus, il est souvent coûteux et peu pratique d’obtenir des données récentes supplémentaires pour confirmer cette hypothèse.

Pour rester pertinents, les statisticiens devront sortir de la position basique de la mise en place de  modèles basés uniquement que des données historiques directes et enrichir leurs modèles de données récentes pour mieux cibler les tendances actuelles.

Cette technique est appelée Transfer Learning, elle aide à résoudre ce type de problème en offrant un ensemble d’algorithmes qui identifie les domaines de connaissance potentiellement applicables au domaine cible. Cet ensemble de données plus large peut ensuite être utilisé pour aider à former un modèle. Ces algorithmes identifient les points communs entre la tâche cible, les tâches récentes, les tâches précédentes et les tâches similaires. De ce fait, cela aide à guider l’algorithme pour apprendre uniquement à partir de données pertinentes.

competences-data-scientist-660x330

Dans le cas des élections présidentielles américaines, il serait possible d’utiliser cette méthode pour comprendre quels phénomènes économiques et sociaux internationaux pourraient prédire la montée d’un candidat inattendu comme Trump. Alors que le phénomène Trump est nouveau dans le climat politique américain, les analystes de la politique avait déjà observé cette tendance à un niveau mondial. Ronald Inglehart et Pippa Norris ont en effet examiné la croissance du populisme dans de nombreuses sociétés occidentales. Par exemple, depuis l’émergence du UK Independance Party au Royaume-Uni, le populisme a alimenté les sentiments anti-européens et anti-immigration, ce qui a donné lieu au Brexit. De même, l’insécurité économique dans les économies post-industrielles et la volonté de contrer la diversification des sociétés ont conduit les mêmes groupes d’électeurs aux urnes.

Les techniques de Transfer Learning auraient pu permettre aux statisticiens de mieux comprendre les tendances actuelles du vote à l’échelle mondiale. Selon ce modèle, les données provenant de l’extérieur des Etats-Unis auraient permis de prédire un plus grand soutien pour Trump, en particulier en se basant sur les données démographiques.

Une technique utile aux prédictions commerciales

Les problèmes qui découlent de l’utilisation de données historiques sont également fréquents dans de nombreux autres secteurs. Les entreprises ont tendance à réaliser des investissements stratégiques en se basant sur des données historiques en ignorant que la réalité a pu changer entre-temps.

On retrouve le problème des données incomplètes ou peu fiables dans de nombreux secteurs. Par exemple, une entreprise voulant appliquer une expérience réussie dans son pays d’origine à un autre pays, dans le but de s’y exporter, pourra utiliser le Transfer Learning pour identifier les similitudes entre les deux pays. Il est par exemple possible d’identifier des groupes de population qui présentent des caractéristiques démographiques et économiques similaires ainsi que ce qui les différencie. D’un point de vue commercial, cela permettra aux décideurs de simuler la performance de l’entreprise dans un environnement similaire au marché ciblé.

Au lieu d’utiliser les techniques courantes consistant à utiliser uniquement les données historiques du même problème pour faire des prédictions, les statisticiens politiques et les commerciaux doivent commencer à utiliser des données provenant de problèmes similaires survenus récemment. Pour établir un lien entre les deux problèmes, les algorithmes de Transfer Learning permettent de focaliser sur le processus d’apprentissage sur les parties les plus pertinentes des données historiques.

Malgré tout, les données historiques restent extrêmement précieuses pour réaliser des prédictions. Toutefois, la capacité à utiliser des techniques plus avancées en data science aidera à tirer parti de l’information d’événements comparables, ce qui est crucial pour établir des prévisions plus précises, surtout lorsque les données historiques sont limitées et l’environnement incertain. Pour évider les erreurs critiques dans la prédiction, les analystes de données doivent adopter de nouvelles méthodes pour traduire les connaissances provenant de différentes périodes et domaines.

Cet article Transfer Learning : réaliser de meilleures prédictions avec peu de données a été publié sur LeBigData.fr.

]]>
Comment l’analyse des données client améliore les entreprises SaaS https://www.lebigdata.fr/donnees-client-saas-2012 Tue, 20 Dec 2016 17:44:22 +0000 https://www.lebigdata.fr/?p=3167 Chaque société SaaS veut le succès de ses clients, mais la réussite de ces derniers exige une compréhension claire de …

Cet article Comment l’analyse des données client améliore les entreprises SaaS a été publié sur LeBigData.fr.

]]>
Chaque société SaaS veut le succès de ses clients, mais la réussite de ces derniers exige une compréhension claire de la valeur attendue. L’analytique peut fournir une telle perspective grâce à l’analyse des données client.

Il existe trois types d’analyse pour l’entreprise :

  • Analyse descriptive, donnant un aperçu des données historiques.
  • Analyse prédictive, qui prédit les tendances et des modèles de comportement.
  • Analyse prescriptive, qui se concentre sur la meilleure action pour une situation donnée.

La réussite des clients peut être améliorée grâce à ces trois types d’analyse.

Les équipes spécialisées dans la réussite client se tournent de plus en plus vers la technologie pour l’analyse prédictive, les aidant ainsi à identifier les clients à risque ou prêts à acheter davantage. Ces informations sont précieuses, car elles permettent aux entreprises SaaS de s’engager de manière proactive auprès des clients.

L’analyse descriptive des données client est également précieuse au sein d’une entreprise SaaS. Au-delà de la prévision du comportement des clients, les équipes de réussite client peuvent identifier les meilleures façons d’améliorer leurs produits et leur processus marketing pour contribuer à la réussite des clients.

Les données client résident dans une variété de systèmes au sein d’une entreprise au niveau du CRM, du marketing, du support, de la facturation et de bien d’autres points d’entrée pour les données client.

Combiner les détails de son compte, de son comportement et de ses commentaires permet d’avoir une image complète du client. L’analyse client s’appuie sur ces données riches pour identifier comment les entreprises peuvent améliorer leurs produits. Voyons désormais quelques-unes de ces techniques d’analyse populaires.

Agrégation et segmentation comme point de départ

données client data saas

L’agrégation et la segmentation des données client sont les points de départ de toute analyse. Ces outils donnent une compréhension complète et rapide d’un compte tout en permettant de tester des hypothèses. L’agrégation prend un ensemble de données pour en extraire une valeur unique. Par exemple, il peut s’agir du nombre d’utilisateurs uniques au cours des 30 derniers jours ou de la fréquence de l’utilisation d’une fonctionnalité au cours de la semaine. Visualisées au fil du temps, ces données client montrent une tendance ou des changements dans le comportement des clients.

La segmentation permet de définir un groupe de clients selon leurs caractéristiques. Par exemple, on pense aux comptes dont le MRR est supérieur à 2000 dollars ou les utilisateurs ayant utilisé une fonctionnalité particulière. Il est ensuite possible d’afficher les statistiques agrégées sur les segments, ce qui permet de les comparer.

Comprendre les facteurs qui affectent le succès au sein des différents segments peut permettre de créer des plans d’action pour directement cibler les problèmes des clients. Il est également possible de comparer les comptes dans le but d’élaborer des stratégies de rétablissement.

L’agrégation et les segmentations peuvent également aider les entreprises à comprendre le profil des clients qui ont connu le succès. Concentrer les programmes d’acquisition sur des clients susceptibles de réussir avec une solution en particulier permet d’accélérer la croissance d’une entreprise.

Lorsqu’il s’agit d’utiliser les agrégations et la segmentation, le défi est la grande quantité de données qu’il y a à explorer. Au fil des ans, les équipes spécialisées dans la réussite client développeront des intuitions pour accélérer le processus grâce aux données clients, alors que d’autres analyses permettront d’acquérir des informations supplémentaires.

Les cohortes pour tracer une action en particulier

entrepreneur cloud données client

L’analyse des cohortes segmente différemment que certaines caractéristiques. Une utilisation courante de cohortes place les clients dans des groupes. Il est ensuite possible de les suivre au fil du temps pour surveiller les changements dans la rétention des clients, le score de santé ou encore le niveau d’activité. Au fur et à mesure de l’amélioration du produit, il sera peut-être possible de voir que les cohortes montrent des améliorations.

Il est également possible de placer les clients en groupes en fonction de la date à laquelle ils ont effectué une action et les suivre en se basant sur cette action initiale. Ces fonctionnalités que les clients continuent d’utiliser sont susceptibles de fournir davantage de valeurs que ceux que les clients utilisent rarement ou cessent d’utiliser. Les données client des cohortes peuvent être combinées avec la segmentation pour affiner la compréhension du comportement des clients. Il est possible de segmenter les clients par secteur, par taille ou par industrie par exemple,pour voir voir si certaines fonctionnalités sont davantage associées à un secteur en particulier. Cela permet d’identifier les fonctionnalités à promouvoir auprès de tel ou tel client et permet de faire comprendre aux équipes de produits et marketing si un client apprécie une fonctionnalité en particulier.

L’analyse par entonnoir pour améliorer les étapes client

données client data

L’analyse par entonnoir se concentre sur le nombre de clients ayant terminé une série d’étapes et combien de temps leur a fallu pour y arriver. Pour cela, il suffit de définir une série d’actions que l’on attend des clients pour les suivre à travers ces étapes.

Une analyse client par entonnoir consiste à suivre les utilisateurs au moyen des processus d’inscription. En suivant ces différentes étapes, il est possible de voir le pourcentage de clients qui effectuent chaque étape, complètent chaque étape et où les problèmes importants se produisent.

Pour tirer le meilleur de l’analyse de données client par entonnoir, il est possible de commencer par suivre le nombre de personnes qui terminent le processus d’inscription. L’analyse par entonnoir est très utile pour les équipes voulant comprendre ou apporter des améliorations à leurs solutions. Cela est également précieux pour les équipes qui peuvent interagir avec prévoyance. Si une partie du produit pose problème aux clients, elles peuvent mieux les guider au cours des différentes étapes à l’aide de formations.

L’analyse de régression pour analyser les corrélations

L’analyse de régression identifie la corrélation entre les différentes métriques. Par exemple, il est possible exécuter une régression pour vérifier la corrélation entre la fréquence de connexion et les revenus. Les résultats peuvent révéler une augmentation des revenus avec une fréquence de connexion accrue ou une baisse des revenus avec augmentation de la connexion ou ne trouver aucune corrélation entre les revenus et la fréquence de connexion. La régression est un moyen utile d’identifier les tendances à partir de données non structurées. En identifiant la corrélation entre le temps et une métrique, il est possible de déterminer si cette métrique a augmenté ou diminué.

Amazon utilise les données de ses clients pour ouvrir une librairie

En somme, l’analyse des données client aide les équipes de réussite client à identifier les améliorations de leurs produits ainsi que de nouveaux processus de marketing. L’analyse des données client peut donc permettre aux entreprises SaaS d’améliorer considérablement leurs entreprises.

Cet article Comment l’analyse des données client améliore les entreprises SaaS a été publié sur LeBigData.fr.

]]>
Databricks lève de fonds pour incarner la prochaine étape du Big Data https://www.lebigdata.fr/databricks-fonds-donnees-1612 Fri, 16 Dec 2016 18:42:55 +0000 https://www.lebigdata.fr/?p=3128 Databricks, une entreprise construite sur le projet open source Apache Spark, vient d’obtenir 60 millions de dollars dans un nouveau …

Cet article Databricks lève de fonds pour incarner la prochaine étape du Big Data a été publié sur LeBigData.fr.

]]>
Databricks, une entreprise construite sur le projet open source Apache Spark, vient d’obtenir 60 millions de dollars dans un nouveau financement. La société a l’ambition de représenter la prochaine avancée dans l’organisation des données, le calcul et la livraison de Big Data.

Entreprise née du projet open source Apache Spark, Databricks prend l’itinéraire emprunté par de nombreuses sociétés de Big Data avant elle. Spark est une nouvelle étape dans la longue marche des data scientists pour compiler des quantités massives de données faciles à comprendre et à utiliser dans la prochaine génération d’applications.

Les sociétés de Big Data sont en concurrence pour réussir à traiter des données de manière à pouvoir d’en servir efficacement pour que les entreprises puissent les comprendre.

Des entreprises comme Cloudera, ayant recueilli environ 1 milliard de dollars au cours de ces jours de gloire en 2014, est arrivé sur le marché en revendiquant une meilleure façon de stocker et gérer de grandes quantités de données pour beaucoup moins cher que les infrastructures technologiques précédentes. Des entreprises comme Facebook et Google utilisent cette solution pour traiter les milliards données qu’ils récoltent.

Databricks iot fonds données

Spark est la prochaine étape, ne se concentrant pas sur le stockage de données, mais sur la façon de les gérer plus efficacement. Ces deux fonctionnalités vont ensemble, mais sont profondément différentes.

Avec son dernier financement, dirigé par l’investisseur habituel de la société New Enterprise Associates et l’investisseur initial de Databricks, Andreessen Horrowitz, la société cherche à développer encore plus sa technologie.

Un traitement des données efficace

Databricks iot

Databricks a baissé le prix du traitement de données de 4,51 dollars à 1,44 dollar par Terabyte. La société a travaillé avec Nanjing University et Alibaba Group pour former l’équipe détenant à ce jour le record du monde. L’entreprise était arrivée en première position du CloudSort Benchmark, un concours conçu pour développer des technologies pour réduire le coût total de propriété de l’architecture sur le Cloud et encourager les organisations à adopter et déployer des applications de Big Data sur le Cloud public.

Les data scientists se précipitent vers le projet, selon Databricks. ìl y a maintenant plus de 288 000 membres de la communauté et plus de 1000 collaborateurs actifs de 250 organisations, a indiqué l’entreprise.

Databricks a lancé son premier produit en 2014, autour du moment ou elle avait levé 33 millions de dollars. Au total, la société a aujourd’hui récolté 100 millions de dollars. Le produit de la société ayant déjà 400 clients, ces nouveaux fonds augmenteront les ventes et le marketing.

« Apache Spark a permis à un grand nombre de société et d’utilisateurs de pointe de créer des valeurs commerciales grâce à des solutions d’analyse avancées » a déclaré Ali Ghosi, CEO de Databricks. Il a également ajouté « A mesure que l’adoption de Spark et la demande pour notre plateforme de gestion continue d’augmenter, ce financement fera progresser nos stratégies d’ingénierie et de commercialisation pour répondre aux exigences de nos clients »

Cet article Databricks lève de fonds pour incarner la prochaine étape du Big Data a été publié sur LeBigData.fr.

]]>
Data science : apprendre la discipline en 8 étapes avec DataCamp https://www.lebigdata.fr/data-science-etapes-1512 https://www.lebigdata.fr/data-science-etapes-1512#comments Thu, 15 Dec 2016 17:54:13 +0000 https://www.lebigdata.fr/?p=3101 Le métier de data scientist a été surnommé par Harvard Business Review comme « le plus sexy du 21e siècle » en …

Cet article Data science : apprendre la discipline en 8 étapes avec DataCamp a été publié sur LeBigData.fr.

]]>
Le métier de data scientist a été surnommé par Harvard Business Review comme « le plus sexy du 21e siècle » en 2012 et « le meilleur emploi de l’année » en 2016 par Glassdoor. Data Camp a dévoilé une infographie qui résume la façon d’apprendre la data science en 8 étapes. 

Un métier encore méconnu

La position vis-à-vis de la data science a considérablement évolué au cours de ces quatre dernières années. En 2012, la majorité des articles visaient à expliquer le rôle du data scientist et son activité exacte. À l’époque, une recherche Google de « comment devenir un data scientist » montrait que ce concept pouvait avoir un grand nombre de significations. En 2016, c’est toujours le cas, la recherche donne toujours une variété d’articles présentant différentes opinions sur le sujet. Mais la majorité des articles se concentrent à expliquer les raisons pour lesquelles les data scientists sont des leaders et sont indispensables aux entreprises en pleine transformation digitale.

Ils sont très importants, car il existe très peu de data scientists répondant aux attentes des entreprises à ce jour, bien que la définition de ce métier ne soit pas encore fixe. Les offres d’emploi montrent que les sociétés recherchent des personnes ayant des compétences en communication, de la créativité, de l’intelligence, de la curiosité, de l’expertise technique et bien d’autres atouts. Souvent, en regardant les compétences requises, il est possible de penser que la data science est un secteur est peine perdue. 

Avec plus de demande que d’offre, l’attention que l’on porte aux équipes de data scientists est à la hausse. Cette demande pose une fois de plus la question de ce qu’est réellement la data science.

setwidth700-data-scientist

De nombreuses compétences requises

Tout comme la définition de data scientist, la définition de la data science a également de multiples facettes. En effet, il existe beaucoup de conseils pour les personnes voulant apprendre la data science. Évidemment, il n’existe pas de définition précise puisque cela dépend fortement de l’industrie et du contexte. Pour en savoir plus, il suffit de se référer à l’infographie “Become a Data Scientist in 8 Steps” crée par la société DataCamp, qui donne un aperçu des huit étapes à suivre pour devenir un data scientist. Certaines étapes peuvent être plus faciles que d’autres pour certains, en fonction de l’expérience. Cette infographie peut aussi bien s’adresser aux novices, aux informaticiens voulant travailler dans la data et même aux équipes de data scientists.

Pour faire court, il faut devenir compétent en statistiques, en mathématiques et en machine-learning, apprendre à coder, comprendre les bases de données, explorer le flux de travail de la data science et acquérir des compétences en Big Data. L’infographie conseille également de rejoindre des compétitions, rencontrer d’autres data scientists, suivre chaque tendance sur les réseaux sociaux et médias spécialisés. 

De plus, des connaissances de SQL, des langages Python, Java et R sont généralement requises. Contrairement aux spécialistes de l’analyse prédictive doivent savoir utiliser les bases de Python, un data scientist doit être capable de construire ses propres outils sur Python sans être limité à une ou deux bibliothèques. La connaissance de Python est l’une des qualités les plus importantes pour le recrutement. Ainsi, un apprenti data scientist n’ayant pas de connaissances en Java ou en C++ pourront se contenter d’une expérience en Python.

Une expérience en machine-learning est également appréciable pour le recrutement d’un data scientist. De plus en plus de développeurs comme Microsoft, Google ou Salesforce ajoutent du machine-learning à leurs applications. Les profils d’étudiants les plus recrutés sont des étudiants en mathématiques, statistiques, science informatiques, neurosciences, biologie ou psychologie informatique. Pour ceux qui n’ont pas eu la chance d’étudier dans ces domaines, il existe également de bons programmes proposant une formation intensive focalisée sur des compétences spécifiques. On pense notamment à Kaggle, proposant aux data scientists de s’affronter sur des problèmes complexes à résoudre avec également la possibilité de travailler sur des projets réels en collaboration.

Voici l’infographie réalisée par DataCamp :

data-scientist

Cet article Data science : apprendre la discipline en 8 étapes avec DataCamp a été publié sur LeBigData.fr.

]]>
https://www.lebigdata.fr/data-science-etapes-1512/feed 1