Infographies – LeBigData.fr https://www.lebigdata.fr Le magazine du Big Data et du Cloud Computing Fri, 03 Apr 2020 09:06:58 +0000 fr-FR hourly 1 [Sponsorisé] DesignCap : l’infographie facile et gratuite https://www.lebigdata.fr/designcap-linfographie-facile-et-gratuite Fri, 03 Apr 2020 09:05:25 +0000 https://www.lebigdata.fr/?p=15572 Sponsorisé Cet article apporte tous les renseignements nécessaires à la prise en main d’un logiciel gratuit de création numérique. Très …

Cet article [Sponsorisé] DesignCap : l’infographie facile et gratuite a été publié sur LeBigData.fr.

]]>
Sponsorisé

Cet article apporte tous les renseignements nécessaires à la prise en main d’un logiciel gratuit de création numérique. Très simple à utiliser, il s’agit de DesignCap infographic maker

Ceux qui travaillent dans le marketing digital le savent, l’infographie y joue un rôle majeur. L’utilisation de cette technique de création numérique donne un pouvoir d’attraction indéniable au contenu et permet ainsi d’augmenter le trafic des sites web. Le bon choix des formes et des couleurs dans un respect de la ligne éditoriale et de l’empreinte de la marque est l’un des moyens les plus efficaces pour transmettre un message. Cela est d’autant plus vrai avec des idées novatrices et attrayantes. 

Pourtant, alors que l’on entend souvent parler de l’infographie et de la création digitale, sait-on véritablement de quoi il en retourne ? Il est surtout facile de les confondre avec d’autres formes d’illustrations ou de présentations de données. Toutefois, l’infographie intègre tout un processus de réflexion et une mission bien précise qui lui sont propres.

infographie designcap

En quoi consiste DesignCap ?

DesignCap est un logiciel web simple à utiliser et très complet. Il permet de créer tous les différents éléments d’une campagne de communication digitale ou non. Cela s’étend ainsi de la carte de visite à l’accompagnement visuel d’une conférence en passant par la déco d’une chaîne YouTube. Les possibilités sont nombreuses. En outre, DesignCap intègre un large catalogue de photos, icônes, polices d’écriture et d’autres fonctionnalités. Et pour ceux qui ne visualisent pas totalement leur concept, cet outil propose une sélection de modèles prêts à l’emploi (templates). De quoi faire démarrer un projet même pour les personnes en manque d’inspiration.

La version gratuite de DesignCap comprend un outil de création infographique. Celle-ci donne accès à de nombreux éléments de design, des templates et des polices d’écritures. Elle procure donc tout ce qu’il faut pouvoir commencer à travailler en toute simplicité. DesignCap fournit également un arsenal de fonctionnalités encore plus abouties. Elles sont cependant réservées aux comptes premium.

design cap création infographie

Comment bien se servir de DesignCap ?

Après avoir choisi un template (ou en partant de zéro), il est tout de suite possible de créer le design que l’on souhaite. En plus d’un choix de photos parmi les millions proposées par la banque d’images, l’on peut importer celles de sa librairie, stockées sur son ordinateur ou dans le cloud.

À partir de là, la création en elle-même peut commencer. Il est alors temps de se servir des nombreuses fonctionnalités mises à disposition des utilisateurs. Elles permettent de modifier tous les éléments selon sa convenance, pour par exemple appliquer un filtre à une image, en modifier sa taille, ajouter du texte, quel que soit sa police et son style. En outre, différents types de graphiques, de figures et autres tableaux peuvent venir compléter l’ensemble. Or, l’avantage de DesignCap est qu’il est conçu pour être accessible au plus grand nombre. Il ne nécessite pas de compétences particulières dans le domaine de la création ou de la production de contenus digitaux. Tout le professionnalisme requis pour un projet est inclus dans chaque élément qui constitue cet outil.

Lorsque la création est terminée, le bouton de partage envoie directement le travail accompli sur les réseaux sociaux ou au carnet d’adresses email renseignées. Ou alors, il est possible de la publier tout de suite sur le net. À savoir qu’elle peut être ensuite modifiée à tout moment, une fois qu’elle est enregistrée comme projet sur le compte. DesignCap propose enfin une fonction pour imprimer ces créations.

Pour conclure

DesignCap est le choix parfait pour la création d’infographies numériques sans pour autant posséder des connaissances approfondies dans le domaine. Même ceux qui l’utilisent pour la première fois n’éprouvent aucune difficulté à réaliser ce qu’ils souhaitent. Pas besoin d’y passer de longues sessions à comprendre comment tel ou tel outil fonctionne.

Pour en découvrir plus sur DesignCap, faites un tour sur sa page dédiée Learn center.

Cet article [Sponsorisé] DesignCap : l’infographie facile et gratuite a été publié sur LeBigData.fr.

]]>
[Infographie] IoT : Prévisions et enjeux de la transformation numérique, par IFS https://www.lebigdata.fr/infographie-previsions-enjeux-defis-de-transformation-numerique-ifs https://www.lebigdata.fr/infographie-previsions-enjeux-defis-de-transformation-numerique-ifs#comments Fri, 10 Jun 2016 12:02:58 +0000 https://www.lebigdata.fr/?p=1572 L’éditeur de solutions de gestion IFS et le cabinet d’analyse IDC s’associent pour présenter une infographie au sujet de l’essor …

Cet article [Infographie] IoT : Prévisions et enjeux de la transformation numérique, par IFS a été publié sur LeBigData.fr.

]]>
L’éditeur de solutions de gestion IFS et le cabinet d’analyse IDC s’associent pour présenter une infographie au sujet de l’essor de l’internet des objets en entreprise. Le document détaille les perspectives, les enjeux et les défis des objets connectés en vue d’une transformation numérique. 

Les nouvelles technologies développées ces dernières années, et plus particulièrement l’internet des objets, ont amorcé une nouvelle ère pour les entreprises de toutes les industries. Une transformation numérique a commencé, et c’est ce phénomène qui guidera la croissance et orientera l’innovation dans les décennies à venir.

Les objets connectés peuvent notamment permettre aux entreprises de collecter d’immenses quantités de données auprès de leurs clients. Ces informations offrent de nouvelles perspectives, mais représentent également un nouveau défi à relever.

C’est la raison pour laquelle les entreprises doivent dès aujourd’hui mettre en place une stratégie articulée autour de l’internet des objets. Elles doivent définir des objectifs précis, déterminer des besoins technologiques et anticiper l’évolution de cette technologie. Pour illustrer cette nécessité, IFS et IDC présentent l’infographie « Digital Transformation – An Internet of Things Perspective ».

L'infographie IDC et IFS l'internet des objets amorce une transformation numérique

En premier lieu, cette infographie commence par une prévision pour l’avenir. En 2020, 75% des grandes et moyennes entreprises auront dépensé 1,5 mille milliards de dollars dans les solutions Internet des Objets. Cet investissement colossal traduit l’importance des objets connectés pour le futur des industries. À l’heure actuelle, la plupart des investissements proviennent des industries manufacturières, de l’industrie des transports, de celle de l’énergie et de la distribution. 

Enjeux et bénéfices

Par la suite, le document énumère les enjeux et les bénéfices de l’IdO pour les entreprises. Le premier avantage concerne directement l’activité des firmes, qui pourront améliorer leurs modèles et augmenter leur efficacité opérationnelle. L’offre pourra également être étoffée par de nouveaux produits et services, dont le développement sera guidé par la demande ou par les nouvelles possibilités.

Pour les entreprises, les principaux bénéfices visés sont pour 14,2% l’amélioration de la productivité, pour 11,8% l’amélioration de la qualité, pour 12,1% l’optimisation des processus métier et pour 9,6% la prise de décisions. Des enjeux cruciaux que la transformation numérique peut aider à atteindre.

Conseils pour une stratégie IoT

L’infographie indique ensuite aux entreprises comment se lancer et développer une stratégie IoT. La première étape consiste bien entendu à inspecter les données disponibles, à les analyser et à chercher à savoir comment elles peuvent être exploitées. Il est ensuite nécessaire de passer en revue et d’évaluer les différentes solutions disponibles sur le marché pour l’analyse mais également pour la sécurité des données. Enfin, il reste à choisir le meilleur fournisseur de solutions.

Les conséquences positives

Pour finir, IFS et IDO explicitent de quelle façon cette stratégie de transformation numérique peut se répercuter positivement sur l’entreprise. Après analyse et traitement, les données collectées disponibles pourront être monétisées en permettant de développer de nouveaux services et de prendre de nouvelles décisions ou de changer de modèles d’affaires et de revenus. Ces données peuvent donc jouer un rôle capital pour la croissance de l’entreprise.

L’infographie prouve donc bel et bien la nécessité de mettre en place une stratégie viable de transformation numérique centrée sur l’internet des objets. Pour en savoir plus, les entreprises intéressées peuvent télécharger le rapport dans son intégralité sur le site de IFS France.

Cet article [Infographie] IoT : Prévisions et enjeux de la transformation numérique, par IFS a été publié sur LeBigData.fr.

]]>
https://www.lebigdata.fr/infographie-previsions-enjeux-defis-de-transformation-numerique-ifs/feed 1
[Infographie] Big Data et chaîne logistique, présenté par Accenture https://www.lebigdata.fr/infographie-big-data-chaine-logistique-benefices-expliques-accenture https://www.lebigdata.fr/infographie-big-data-chaine-logistique-benefices-expliques-accenture#comments Fri, 20 May 2016 09:34:46 +0000 https://www.lebigdata.fr/?p=1416 Afin de mettre en lumière les bénéfices du Big Data Analytics pour la chaîne logistique d’une entreprise, la firme de …

Cet article [Infographie] Big Data et chaîne logistique, présenté par Accenture a été publié sur LeBigData.fr.

]]>
Afin de mettre en lumière les bénéfices du Big Data Analytics pour la chaîne logistique d’une entreprise, la firme de Management Consulting Accenture a mené une étude de grande envergure. Suite à ces recherches, Accenture délivre une infographie complète sur les enjeux et les avantages du Big Data pour la Supply Chain. 

big-data-accenture-logistique-2

L’entreprise internationale Accenture est spécialisée dans le consulting de management et les services technologiques. Elle compte environ 289000 employés et dispenses ses conseils à des clients dans plus de 120 pays. Afin de réaliser une étude détaillée sur l’intérêt du Big Data Analytics pour la chaîne logistique, cette société a effectué des recherches auprès de 1014 Senior Executives d’entreprises asiatiques, américaines et européennes de tous les secteurs, dont le chiffre d’affaires est compris entre 1 et 10 milliards de dollars ou plus.

big-data-accenture-logistique-3

Cette étude est axée sur trois points principaux : la croissance d’un marché émergent, la gestion des risques de la chaîne logistique, et les Big Data Analytics. Ces trois axes sont les priorités établies par les exécutifs interrogés. L’étude cherche à mettre en lumière les stratégies et tactiques employées par les dirigeants d’entreprises dans ces trois domaines, et à évaluer l’efficacité de ces méthodes.

Accenture commence tout d’abord par un constat paradoxal. Actuellement, 97% des exécutifs estiment que l’analyse du Big Data peut avoir un impact positif sur la chaîne logistique de leurs entreprises. Cependant, seuls 17% ont déjà implanté des outils analytiques à une ou plusieurs fonctions de leur supply chain. En revanche, il s’agit d’un phénomène de mode en plein essor, puisque 1 tiers des dirigeants interrogés est déjà engagé dans le processus d’implantation de ces outils.

big-data-accenture-logistique (6)

Les attentes de ces exécutifs vis-à-vis de l’exploitation du Big Data sont nombreuses. 48% d’entre eux souhaitent s’en servir pour pouvoir réagir plus rapidement aux changements. 45% veulent pouvoir prédire ces changements. 43% espèrent pouvoir obtenir une vue d’ensemble de la chaîne logistique pour pouvoir optimiser les performances globales de leur entreprise.

big-data-accenture-logistique (7)

Hélas, malgré tout l’intérêt porté au Big Data, l’adoption des outils analytiques se heurte à plusieurs obstacles. 67% s’inquiètent de l’investissement représenté. 64% se posent des questions concernant la sécurité. Les autres freins cités sont la confidentialité, l’absence de soutien de la part des chefs d’entreprise, ou encore le manque de personnel qualifié en interne pour se charger de ce déploiement.

big-data-accenture-logistique (8)

Pour le moment, seuls 34% des entreprises interrogées ont une équipe de Data Scientists qualifiés focalisés sur l’analyse du Big Data en vue d’une amélioration de la chaîne logistique ou de l’entreprise dans sa globalité. Ce manque de personnel compétent peut provenir d’une incapacité à attirer les profils les plus talentueux, faute de moyens, ou tout simplement d’une négligence de la part des employeurs.

big-data-accenture-logistique (9)

Une fois déployée, la stratégie analytique des données volumineuses peut apporter de nombreux bénéfices. Selon les entreprises interrogées, ses principaux apports sont l’amélioration du service client, l’accélération de la réactivité aux éventuels problèmes de chaîne logistique, ou encore l’efficacité et l’intégration de cette chaîne logistique. Ces bénéfices requièrent toutefois de respecter une stratégie analytique bien ficelée.

big-data-accenture-logistique (10)

big-data-accenture-logistique (11)

Les trois clés pour dégager un retour sur investissement des Big Data Analytics

big-data-accenture-logistique (12)

En effectuant ses recherches, Accenture affirme être parvenue à dégager trois règles à respecter pour tirer un retour sur investissement des Big Data Analytics dans la chaîne logistique. Il est ainsi essentiel de se focaliser sur le développement d’une stratégie analytique couvrant l’ensemble de l’entreprise. Il faut également s’assurer que les Big Data Analytics implantés dans la chaîne logistique visent à améliorer les prises de décisions de l’entreprise. Enfin, il est nécessaire de recruter des spécialistes dotés de compétences analytiques et de connaissances en business, capables de tirer des informations véritablement utiles des Big Data.

big-data-accenture-logistique (13)

Une stratégie analytique englobant l’ensemble de l’entreprise s’avère largement plus efficace qu’une stratégie trop spécifique, orientée vers un seul objectif. Par exemple, pour réduire les temps de livraisons, 61% des entreprises dont la stratégie est globale rencontrent le succès, contre 14% des entreprises trop focalisées. Il en va de même pour l’efficacité des décisions de ventes et d’opérations, avec une réussite de 55% contre 12%. Une stratégie claire dont les objectifs sont prédéfinis à l’avance et mûrement réfléchis est également beaucoup plus rentable.

big-data-accenture-logistique (14)

De même, les statistiques révèlent qu’il est plus judicieux d’utiliser les Big Data Analytics au quotidien que de s’en servir uniquement ponctuellement pour résoudre des problèmes. La première stratégie se révèle encore une fois plus efficace pour réduire les temps de livraison (63% contre 12%), pour améliorer les opérations basées sur la demande (58% contre 15%), pour les décisions de ventes et d’opérations (51% contre 13%), pour réagir aux problèmes dans la Supply Chain (47% contre 18%) et pour optimiser les inventaires (45% contre 19%).

big-data-accenture-logistique (16)

La troisième règle à respecter est de former une équipe de Data Scientists dédiée à l’analyse des données, ou, en dernier recours, une personne capable d’utiliser des outils performants pour analyser les données. L’étude d’Accenture démontre qu’une équipe de Data Scientists est largement plus bénéfique qu’une équipe d’analystes traditionnels pour la réduction des temps de livraison (50% contre 9%), pour améliorer les opérations basées sur la demande (50% contre 9%) ,pour améliorer les relations entre les clients et les livreurs (44% contre 13%), et pour les décisions de ventes et d’opérations (44% contre 11%). Il est donc essentiel de recruter des profils formés dans les meilleures universités.

En conclusion, l’analyse du Big Data peut avoir des conséquences très bénéfiques sur la chaîne logistique d’une entreprise. Il est cependant nécessaire de déployer une stratégie globale, mûrement réfléchie, intégrée à la supply chain et gérée par une équipe de Data Scientists qualifiés.

Cet article [Infographie] Big Data et chaîne logistique, présenté par Accenture a été publié sur LeBigData.fr.

]]>
https://www.lebigdata.fr/infographie-big-data-chaine-logistique-benefices-expliques-accenture/feed 2
[Infographie] : Les tendances 2016 du Big Data et de l’analytique par Aureus Analytics https://www.lebigdata.fr/infographie-tendances-2016-big-data-de-lanalytique-aureus-analytics https://www.lebigdata.fr/infographie-tendances-2016-big-data-de-lanalytique-aureus-analytics#comments Thu, 19 May 2016 08:53:43 +0000 https://www.lebigdata.fr/?p=1404 Pour la troisième année consécutive, Aureus Analytics présente son rapport des tendances 2016 du Big Data et de l’analytique sous …

Cet article [Infographie] : Les tendances 2016 du Big Data et de l’analytique par Aureus Analytics a été publié sur LeBigData.fr.

]]>
Pour la troisième année consécutive, Aureus Analytics présente son rapport des tendances 2016 du Big Data et de l’analytique sous la forme d’une infographie claire et lisible. Découvrez les changements et les nouveautés à prévoir pour cette année. 

Depuis maintenant trois ans, l’entreprise indienne Aureus Analytics présente ses prévisions des tendances du Big Data et du Data Analytics pour l’année en cours. Ce spécialiste du Big Data de l’analyse prédictive offre une vision claire de l’évolution de ce marché en perpétuelle transformation.

Cette année, le mot d’ordre semble être au Self-Service Analytics, alors que de plus en plus d’entreprises utilisent les analyses en temps réel pour prendre des décisions majeures. Les Data Scientists eux-mêmes doivent désormais comprendre les enjeux de l’entreprise. Dans ce contexte, de nouveaux outils et autres écosystèmes devraient apparaître sans tarder.

big-data-analytics-trends-report-aureus-analytics

Les prévisions d’Aureus Analytics pour 2016

aureus-analytics

1 – De nouvelles sources de données publiques

Aux États-Unis, les données de santé agrégées sont désormais ouvertes au public par l’intermédiaire du National Center for Health Statistics du CDC. D’ici peu de nombreux autres pays devraient emprunter la même direction. En conséquence, ces données peuvent à présent être librement exploitées par les entreprises. Outre la santé, d’autres domaines devraient également prochainement ouvrir l’accès à leurs données.

national-center-health-statistics

2 – Deep Learning

Grâce au Deep Learning, les outils analytiques vont progressivement devenir plus intelligents, autonomes et intuitifs. Leur fonctionnement va peu à peu se rapprocher de celui de l’esprit humain et de sa façon de penser.

deep-learning

3 – Self-Service Analytics

Afin de compenser le manque de spécialistes qualifiés, et dans le but de gagner du temps, les entreprises vont peu à peu prendre en charge par elles-mêmes les analyses de données grâce aux outils de Self-Service Analytics. Dans cet ordre d’idée, les outils traditionnels de Data Analytics devraient également devenir plus accessibles et user-friendly.

4 – La maturité d’Apache Sparks

apache-spark

Avec l’adoption croissante de la plate-forme MapR, Apache Spark est logiquement plus utilisé. Grâce à ses changements évolutifs, Spark pourrait même peu à peu surpasser Hadoop, notamment pour répondre aux demandes d’analyse en temps réel.

5 – Rich Data Analytics

Afin d’obtenir des informations plus complètes, les données issues de formats tels que la vidéo, l’audio ou les images vont être de plus en plus analyséesÀ mesure que les coûts seront réduits, et que la flexibilité et la vitesse de traitement augmenteront, les outils nécessaires à ces analyses se populariseront.

6 – Les données non structurées de plus en plus exploitées

Les données non structurées, par exemple les émoticônes utilisées par les internautes, vont être collectées et analysées plus rapidement et plus profondément. Par ailleurs, le contexte précis d’émission des données va devenir une information essentielle.

7 – Le traitement des données en temps réel

analyse-temps-reel

Les données issues des réseaux sociaux, des gouvernements ou encore des entreprises elles-mêmes doivent désormais être analysées en temps réel pour plus d’efficacité. Le coût des infrastructures nécessaires, principal obstacle à ce gain de temps, devrait être surmonté cette année.

8 – Les réseaux sociaux forcent les spécialistes de l’analyse à évoluer

facebook-analytics

Peu à peu, les réseaux sociaux vont développer leurs propres outils analytiques. Pour rester compétitifs, les Data Analysts vont donc devoir redoubler d’efforts et d’inventivité. Par ailleurs, les données comportementales issues des réseaux sociaux vont être plus facilement accessibles.

9 – Quantifier les bénéfices des analyses prédictives

Afin de déterminer l’utilité d’une analyse prédictive, les entreprises souhaitent de plus en plus pouvoir quantifier son impact. Dans ce contexte, les techniques comme le Target Shuffling sont amenées à être de plus en plus utilisées. Pour l’heure, la quantification des effets d’une analyse prédictive reste une tâche coûteuse.

10 – La science des données devient essentielle dans tous les secteurs de l’entreprise

La Data Science n’est plus une notion isolée. Elle gagne en importance dans les tous les secteurs d’entreprise, et même au sein de toutes les fonctions. Les Data Scientists doivent donc gagner en polyvalence.

Cet article [Infographie] : Les tendances 2016 du Big Data et de l’analytique par Aureus Analytics a été publié sur LeBigData.fr.

]]>
https://www.lebigdata.fr/infographie-tendances-2016-big-data-de-lanalytique-aureus-analytics/feed 1
[Infographie] Les quatre V du Big Data expliqués par IBM https://www.lebigdata.fr/infographie-quatre-v-big-data-expliques-ibm https://www.lebigdata.fr/infographie-quatre-v-big-data-expliques-ibm#comments Fri, 13 May 2016 10:00:09 +0000 https://www.lebigdata.fr/?p=1345 Selon de nombreux spécialistes, la notion de Big Data peut être définie par les quatre V : Volume, Variété, Vitesse …

Cet article [Infographie] Les quatre V du Big Data expliqués par IBM a été publié sur LeBigData.fr.

]]>
Selon de nombreux spécialistes, la notion de Big Data peut être définie par les quatre V : Volume, Variété, Vitesse et Véracité. Ces quatre dimensions la caractérisent, et distinguent les données volumineuses des données ordinaires. À travers l’infographie présentée dans cet article, IBM met en lumière ces spécificités.

C’est avec l’essor du numérique qu’est née la notion de Big Data. L’usage accru d’internet et de ses déclinaisons a engendré une augmentation des données, en termes de volume, mais également de variété et de vitesse, ainsi qu’une perte de précision. Cette évolution des données est, aux yeux des Data Scientists d’IBM, celle qui caractérise et définit le Big Data.

Dans le cadre de son infographie sur ce sujet, IBM commence par rappeler comment est apparue cette transformation des données. Le principal facteur de ce changement est bien entendu l’apparition des réseaux sociaux, des appareils mobiles intelligents, des objets connectés, mais également la multiplication des transactions sur internet.

Le géant de l’informatique rappelle par ailleurs comment les entreprises peuvent exploiter ces données. Le Big Data peut servir à adapter ses produits et ses services aux besoins des consommateurs, à optimiser les opérations et l’infrastructure, ou encore à trouver de nouvelles sources de revenus. La firme californienne dévoile ainsi que 4,4 millions d’emplois relatifs au Big Data ont été créés dans le monde en 2015, dont 1,9 million aux États-Unis.

Les quatre V

Pour comprendre le Big Data, IBM synthétise ce phénomène par quatre spécificités majeures : les 4 V. Le Volume, la Variété, la Vélocité et la Véracité.

les-4-V-du-big-data-ibm

Volume

Le volume est la principale caractéristique du Big Data. Le terme est en effet directement tiré de l’immense masse de données générées au quotidien. Selon IBM, une moyenne de 2,5 quintillions de bytes de données sont créés chaque jour, soit environ 2,3 trillions de gigabytes.

D’année en année, la quantité de data augmente considérablement. Sur l’ensemble de l’année 2020, 40 zettabytes de données seront créés, soit 43 trillions de gigabytes. Ceci représente une quantité 300 fois plus importante qu’en 2005.

Ces données proviennent à la fois des entreprises et des particuliers. Aux États-Unis, la plupart des entreprises ont au moins 100 terabytes de données, soit environ 100 000 gigabytes entreposés dans leurs systèmes de stockage. De plus, sur 7 milliards d’individus, 6 milliards possèdent actuellement un téléphone portable. 

Variété

big-data-variete

Par delà la simple quantité, ces données sont également plus diversifiées que jamais. Ce phénomène est lié à la diversification des usages d’internet et du numérique. La provenance des données, leur format, mais également le domaine auquel elles sont liées connaissent une variété sans précédent.

En 2011, on dénombrait déjà 150 exabytes, soit 161 milliards de gigabytes, de données relatives à la santé. En 2014, se sont ajoutées à cette somme les données en provenance d’environ 420 millions d’objets connectés tels que les traqueurs d’activité et autres appareils sans fils permettant d’analyser l’état de santé d’un utilisateur.

Les différents réseaux sociaux génèrent également une immense masse de data. Chaque mois, 30 milliards de publications sont partagées sur Facebook. Sur Tweeter, les 200 millions d’utilisateurs actifs émettent environ 400 millions de tweets par jour. De même, les 4 milliards d’heures de vidéo visionnées chaque mois sur YouTube représentent également une nouvelle forme de données non structurées.

Vélocité

big-data-velocite

Les données sont également collectées plus rapidement, puisqu’elles sont désormais reçues sous forme de flux. Pour illustrer cette accélération, certains parlent à présent de Fast Data comme la prochaine étape après la maîtrise du Big Data.

Ainsi, IBM prend l’exemple des voitures modernes, équipées en moyenne de 100 capteurs capables de mesurer en temps réel le niveau d’essence, la pression des pneus et bien d’autres données. Le phénomène est également illustré par l’exemple du New York Stock Exchange, qui enregistre environ 1 terabyte de données durant chaque session.

Chaque activité réalisée sur internet est désormais traquée avec précision, grâce à un total de 18,9 milliards connections en réseau dans le monde, soit environ 2,5 pour chaque individu sur Terre. Internet n’a jamais été aussi rapide.

Véracité

big-data-veracite

La véracité, l’exactitude des données demeurent aujourd’hui le principal défi du Big Data. À l’heure actuelle, ces données ne sont pas encore suffisamment maîtrisées, et la précision des analyses s’en trouve affectée. 

Ainsi, dans le cadre d’un sondage réalisé par IBM, 27% des entreprises interrogées avouent ne pas être certaines de l’exactitude des données qu’elles collectent. De même, un chef d’entreprise sur trois utilise les données pour prendre des décisions, mais n’a pas vraiment confiance. Ce manque de véracité et de qualité des données coûte environ 3,1 trillions de dollars par an aux États-Unis.

En conclusion, le Big Data se caractérise par le volume, la variété, et la vitesse des données. La véracité des données reste quant à elle un enjeu majeur, tant sur le plan économique que comme un moteur pour l’innovation au sein des entreprises.

Cet article [Infographie] Les quatre V du Big Data expliqués par IBM a été publié sur LeBigData.fr.

]]>
https://www.lebigdata.fr/infographie-quatre-v-big-data-expliques-ibm/feed 2
[Infographie] Cyrès : Perspectives, freins et alternatives au Big Data https://www.lebigdata.fr/infographie-cyres-perspectives-freins-et-alternatives-au-big-data Fri, 29 Apr 2016 17:11:31 +0000 https://www.lebigdata.fr/?p=1167 Dans le cadre d’une série de trois infographies sur le Big Data, le Data Lake et le Fast Data, le …

Cet article [Infographie] Cyrès : Perspectives, freins et alternatives au Big Data a été publié sur LeBigData.fr.

]]>
Dans le cadre d’une série de trois infographies sur le Big Data, le Data Lake et le Fast Data, le groupe français Cyrès publie cette semaine une première analyse sur les perspectives, mais aussi les freins et les alternatives au Big Data. L’occasion pour les entreprises de mieux comprendre les enjeux du Big Data, les obstacles à surmonter pour exploiter les données, mais également les astuces et les solutions les plus accessibles pour y parvenir.

infographie-cyres-perspectives-freins-alternatives-big-data

Depuis 17 ans le groupe Cyrès, basé à Tours et à Paris, se positionne comme précurseur français dans les domaines du Cloud et du Big Data. Le groupe rassemble Ingensi, Hosteam et Interactive. Avec sa plateforme applicative Analytic Suite Appliance, Ingensi est le pionnier du traitement Big Data dans l’hexagone.

ingensi

Hosteam quant à lui propose aux entreprises françaises différentes solutions d’hébergement Cloud de proximité, au sein d’un data center situé en région Centre. Enfin, Interactive est spécialisé dans le développement d’applications web connectées. Avec plus de 1000 clients à son actif, Cyrès a enregistré en 2015 une croissance de 28%.

hosteam

Aujourd’hui, afin d’aider les entreprises françaises à comprendre comment valoriser les données, et de mettre en avant son expertise, Cyrès présente une série de trois infographies baptisée « Du Big Data au Fast Data : Comment faire parler les données ». Cette documentation se divise en trois parties, abordant chacune une facette différente de l’analyse et de la valorisation de données : le Big Data, le Data Lake et enfin le Fast Data. 

La première de ces trois infographies, publiée cette semaine, met en lumière les perspectives, les freins et les alternatives à l’exploitation du Big Data. Elle offre aux entreprises intéressées par l’analytique une vision claire et synthétique de ce sujet.

Les perspectives

cyres-perspectives-big-data

En premier lieu, Cyrès s’appuie sur une étude menée par IDC pour prédire les perspectives du Big Data à l’horizon 2018/2020. Selon cette étude, en 2018, 50000 Go de données seront créés chaque seconde. Avec le développement des industries des objets connectés, des smartphones et des réseaux sociaux, ce gigantesque volume va continuer à croître à une vitesse effrénée.

Ainsi, en 2020, la quantité de données créées chaque seconde sera multipliée par 10 par rapport à 2013. Pour 4,4 zettabytes en 2013, il y en aura 44 à la seconde en 2020. Ces chiffres donnent le vertige, et traduisent la nécessité pour les entreprises d’apprendre à maîtriser, analyser, et enfin exploiter ces données pour les valoriser.

Les freins

cyres-freins-big-data

Toutefois, plusieurs freins s’opposent à cette exploitation, comme en témoigne la seconde partie de l’infographie, basée sur une étude menée par Ernst & Young auprès de 150 entreprises françaises. D’abord, le manque de profils compétents au sein des entreprises et sur le marché professionnel empêche les firmes de traiter les Big Data par elles-mêmes. À l’heure actuelle, on dénombre en moyenne en France moins de 10 profils data par entreprises

Outre le personnel, le manque d’outils pour le traitement des données pénalise terriblement les entreprises. Aujourd’hui seules 27% des firmes nationales ont déployé des solutions permettant de fiabiliser les données non structurées. Même pour les entreprises exploitant déjà leur Big Data, l’absence d’outils d’analyse prédictive ou en temps réel pose un réel problème, avec 10% seulement des acteurs industriels parvenant à utiliser leurs données pour la prédiction. Enfin, la grande majorité des firmes avancent à l’aveugle puisque 58% n’ont aucune idée précise de la valeur du retour sur investissement de leur projet Big Data. La situation est donc épineuse, avec des capacités largement inférieures aux besoins générés par l’augmentation du volume de données.

Les alternatives

cyres-alternatives-big-data

Toutefois, en troisième et dernière partie, Cyrès propose aux entreprises des solutions alternatives pour parvenir à exploiter le Big Data. La première option suggérée consiste à faire appel à un expert reconnu du Big Data comme Ingensi pour solliciter son aide et ses conseils. Cette stratégie permet d’acquérir les compétences nécessaires à la valorisation des données, mais également de gagner en autonomie en bénéficiant d’une formation ou d’un audit.

La seconde solution est de décider d’externaliser les services liés au Big Data. Ces services sont l’exploitation des données et la maintenance des outils utilisés, l’hébergement des données On Premise ou sur le Cloud avec des firmes comme Hosteam ou encore l’intégration de nouvelles briques technologiques. Ces différentes alternatives permettent de surmonter les différents obstacles qui freinent le Big Data en France.

Les prochaines infographies de Cyrès aborderont la provenance et le fonctionnement des Data Lakes, et la valorisation du Fast Data.

Cet article [Infographie] Cyrès : Perspectives, freins et alternatives au Big Data a été publié sur LeBigData.fr.

]]>
[Infographie] IDC : enjeux et dynamique du Big Data en France https://www.lebigdata.fr/infographie-idc-enjeux-dynamique-big-data-france Wed, 27 Apr 2016 14:39:47 +0000 https://www.lebigdata.fr/?p=1125 En juin 2014, afin de constituer un Observatoire Big Data en France, l’International Data Corporation a mené l’enquête auprès de …

Cet article [Infographie] IDC : enjeux et dynamique du Big Data en France a été publié sur LeBigData.fr.

]]>
En juin 2014, afin de constituer un Observatoire Big Data en France, l’International Data Corporation a mené l’enquête auprès de 200 entreprises de plus de 500 employés issus de tous les secteurs d’activité. Les données et statistiques récoltées ont permis de réaliser une infographie claire et détaillée sur la dynamique du Big Data en France, en partenariat avec Hewlett-Packard. 

Depuis quelques années déjà, le Big Data est présenté comme un enjeu d’avenir, mais également comme le défi de la décennie pour les entreprises du monde entier. Toutes les grandes firmes américaines s’emploient désormais à collecter un maximum de données exploitables pour ensuite les analyser en profondeur et augmenter leurs revenus. Mais qu’en est-il en France ?

Selon l’étude menée par IDC, en 2014, le marché français du Big Data affichait une valeur de 285 millions d’euros. À l’horizon 2018, le cabinet d’analyses prévoit une progression de 129% pour une valeur totale de 652 millions d’euros. D’après une autre enquête menée par IDC, sur l’ensemble de l’Europe de l’Ouest, le marché progresserait de 2,3 milliards en 2013 à 6,9 milliards en 2018, soit une progression de 24,6% par an. Dans le monde entier, le cabinet d’analyse estimait la valeur du Big Data à 125 milliards de dollars en 2015. Ce marché se divisait à l’époque entre les logiciels à 24%, les services à 33%, et les infrastructures à 43%.

Chiffres Big Data France

Sur les 200 entreprises interrogées, 56% n’avaient pas encore de projet Big Data. 20% étaient en train d’évaluer l’utilité d’un projet et d’une stratégie Big Data. 24% avaient déjà déployé leur solution Big Data ou étaient en train de s’y atteler.

Taux d’adoption par secteur d’activité

2

Le taux d’adoption variait cependant en fonction des différents secteurs d’activité. Dans le commerce, domaine de prédilection du Big Data, ce taux s’élevait à 33%. Dans les transports et les services financiers, il était de 30%. La distribution atteint 30% d’adoption.

La santé se plaçait à 25%, suivie par les usines et les services à 24%. Les entreprises utilitaires et les télécoms avaient adopté le Big Data à 22%, tandis que les services publics demeurent réticents avec 17%. Enfin, l’éducation arrivait en dernière position avec 16% de taux d’adoption.

Les solutions déployées

3

Parmi les solutions déployées, la principale initiative concernait l’investissement dans des technologies de stockage de dernière génération, indispensables pour contenir le volume de données de plus en plus conséquent. 32% des entreprises avaient déjà investi dans ces solutions, tandis que 44% prévoyaient de le faire dans les 12 prochains mois.

Par ailleurs, 24% des entreprises sondées avaient ouvert un accès des utilisateurs à une solution Big Data en production, ce que 40% prévoyaient de faire dans l’année. Les chiffres sont pratiquement les mêmes concernant l’utilisation d’une solution Big Data dans le cloud. De même, 24% utilisaient déjà une appliance base de données comme celle d’Oracle, et 47% l’envisageaient sérieusement.

22% souhaitaient se servir du Big Data pour intégrer les informations sociales, et 44% prévoyaient de le faire. 19% utilisaient déjà l’outil de traitement Hadoop, tandis que 38% s’y apprêtaient. Enfin, 17% allaient déjà jusqu’à construire des pilotes Hadoop, et 37% s’y préparaient.

Les enjeux du Big Data pour les entreprises françaises

4

Afin de mettre en relief les enjeux du Big Data en France, IDC pointe du doigt l’importance du traitement des données aux yeux des entreprises interrogées. Pour 41%, les données générées en interne sont très importantes, voire extrêmement importantes pour 27%. Les données issues de capteurs ou de puces RFID quant à elles sont très importantes pour 59% et extrêmement pour 18%. Concernant les données en provenance des médias sociaux, seuls 9% estiment qu’elles sont d’une importance extrême, mais 64% s’accordent autour d’une grande importance. Enfin, les autres données demeurent très importantes pour 36% et extrêmement importantes pour 32%.

big-data-et-analytique

Une autre étude, menée par le cabinet Markess au début de l’année 2015 auprès de 190 entreprises françaises, intitulée « Big Data et Analytique » révèle que 57% des chefs d’entreprises françaises perçoivent le Big Data comme l’un de leurs trois principaux défis en termes de gestion de l’information. 82% considèrent que l’analyse des données peut améliorer leurs processus métiers, et 41% envisagent d’exploiter les données de leurs entreprises avant 2017.

De même, 61% considèrent le Big Data comme un moteur de croissance à part entière, au même titre que leurs produits ou services. 43% ont procédé à une restructuration pour exploiter les données de leurs entreprises. 36% ont dû faire appel à des aides extérieures pour analyser ces données.

5

Par ailleurs, l’analyse en temps réel de ces données semble être un enjeu majeur pour 65% des entreprises tous corps de métier confondus. 33% des entreprises ne tolèrent plus aucun délai pour cette analyse, et 40% ne peuvent accepter une latence supérieure à 10 minutes. Les données et leur traitement sont donc un enjeu d’avenir véritable pour les entreprises françaises.

Les bénéfices du Big Data à l’internationale

6

Concernant les bénéfices que peuvent apporter ces données, IDC s’appuie sur des statistiques mondiales. Aux États-Unis, dans le secteur de la santé, 300 milliards de dollars sont économisés chaque année et 0,7% de la croissance annuelle en termes de productivité découle directement de ces nouvelles technologies. Dans l’industrie du retail, le Big Data fait croître les marges nettes possibles de 60% et représente entre 0,5% et 1% de la croissance de productivité annuelle.

Dans l’industrie du manufacturing, les coûts de développement et d’assemblage sont réduits de 50%. Le fonds de roulement quant à lui diminue jusqu’à 7%. En Europe, le secteur public parvient à réaliser 250 milliards d’euros d’économie par an, tandis que la productivité croît de 0,5%. Enfin, dans le monde entier, les fournisseurs de services de localisation de données personnelles génèrent 100 milliards de dollars de revenus supplémentaires, et les utilisateurs finaux récoltent jusqu’à 700 milliards de dollars.

Une autre étude, menée par le cabinet Gartner, prévoit la création de 137000 nouveaux emplois liés au Big Data en France d’ici 2020. En 2015, 80% de chefs d’entreprise français déploraient encore le fait de manquer de personnel compétent pour l’exploitation des données.

Les freins à l’essor du Big Data

freins-big-data-ey

D’après les chiffres collectés par EY auprès de plus de 150 entreprises françaises, on compte en moyenne moins de 10 profils data par entreprise. La même étude révèle que seules 17% d’entre elles sont matures en termes d’exploitation des données clients. 45% d’entre elles collectent des données non structurées, et seules 27% ont investi dans des outils permettant d’exploiter cesdites données. 10% d’entreprises seulement font de l’analyse prédictive. 58% n’ont pas pensé à quantifier le retour sur investissement du Big Data. Par ailleurs, les entreprises se heurtent également à la réticence de 70% des clients à partager leurs données.

En conclusion, le Big Data en France en est encore à ses balbutiements. Les enjeux sont nombreux, et beaucoup d’entreprises perçoivent l’exploitation des données comme un moteur de croissance essentiel. Cependant, de nombreux freins tels que le manque de connaissances ou de personnel qualifié, ralentissent l’essor de ce marché prometteur dans l’hexagone.

Cet article [Infographie] IDC : enjeux et dynamique du Big Data en France a été publié sur LeBigData.fr.

]]>