Accueil > Evènements - Agenda > Big Data Paris 2019 : l’inertie freine l’adoption des technologies
verteego big data paris

Big Data Paris 2019 : l’inertie freine l’adoption des technologies

Big Data Paris s’est terminé le 12 mars 2019. Ce salon rassemblait les acteurs du Cloud, du Big Data, de l’analytique, de la visualisation ou encore de l’intelligence artificielle. Comme chaque année, les allées étaient particulièrement bondées.

Disons que les grands groupes IT et les experts du domaine doivent répondre aux demandes de plus en plus fortes des entreprises. En effet, celles-ci s’engagent dans une transformation numérique loin d’être simple. Elles espèrent pouvoir profiter du cloud, baisser le coût de leur infrastructure, gagner en performance tout en respectant les contraintes légales. Pour cela, elles doivent réaliser des aménagements importants. C’est ce que l’on pouvait constater à Big Data Paris 2019.

Mohamed Mahdi Benaissa, Architecte Big Data et IT Business Manager chez Umanis, travaille sur la problématique des plateformes hybrides. Selon l’expert, elles sont apparues il y a deux ans avec la démocratisation du Cloud. “Historiquement, les plateformes Big Data des grands comptes étaient sur site. Quatre ou cinq ans auparavant, la plupart de nos clients avaient des clusters Hadoop dans leurs propres centres de données. Avec l’émergence du cloud et les services associés, ils ont gagné en efficacité, mais aussi ils n’ont pas à installer de nouveaux équipements pour ajouter d’autres noeuds, des applications ou d’agrandir les éléments existants”, assure notre interlocuteur.

Les entreprises profitent enfin des infrastructures cloud et Big Data

En effet, un cluster Hadoop fonctionne sur un seul réseau local. Il n’est pas possible de le faire tourner des machines distantes géographiquement. La plateforme hybride vient répondre à cette problématique. “Elle est constituée d’un ensemble d’outils différents opéré dans une architecture unique : ce que l’on appelle généralement un datalake”, explique M. Benaissa. Outre des contraintes de migration, cela demande “un sacré travail de gouvernance des données”, assure l’expert. Surtout, les entreprises n’utilisent plus seulement ce modèle, mais veulent bénéficier de tous les avantages des environnements cloud et hybride.

Pour cela, Cloudera qui a récemment fusionné avec HortonWorks propose la suite Altus Plane Service. Alors que la plupart des outils Open Source sont des versions distribuées de ces outils libres, les solutions de gouvernance sont elles propriétaires, comme celle d’IBM.

En effet, Big Blue offre des logiciels comme IBM Optim, Infosphere Information Governance Catalog ou StoredIQ Suite afin de faciliter la gestion de ces données à travers diverses infrastructures cloud et Big Data. L’entreprise américaine propose également des services pour sécuriser les informations analysées par une intelligence artificielle.

La transparence des algorithmes selon IBM

La firme a notamment présenté en octobre 2018 Watson on Premise, un service qui permet d’installer l’IA proposée par IBM sur le cloud privé d’une société. Cela doit éviter la fuite des données de valeur. “Pour l’instant, les entreprises ont fait beaucoup de projets relativement simples autour des chatbots. Il n’y a pas d’enjeux majeurs de confidentialité”, affirme Agnieszka Bruyère, Vice présidente cloud chez IBM France. “Si elles veulent aller plus loin, les sociétés ont besoin d’être sûres qu’elles maîtrisent leurs données et les algorithmes associés”.

En cela, IBM propose l’outil Watson Open Scale. Il fournit la visibilité et le contrôle de ces programmes dédiés à l’IA. Ainsi, les entreprises bénéficient “d’une transparence des algorithmes en vérifiant la présence ou l’absence de biais susceptibles de modifier le comportement de l’IA ».

La firme mise aussi sur la virtualisation des données. Pour cela, elle propose IBM Cloud private for data. Cet outil conteneurisé permet de se connecter à de multiples bases de données sans datalake. Compatible avec différents Clouds, il “casse les silos” d’une société.

La gouvernance des données appliquée aux ressources humaines

Jacques Padioleau vp sales talend big data paris
Jacques Padioleau, Vice-Président des Ventes France Talend

 

C’est typiquement ce qu’applique Orange en interne. L’opérateur de télécommunications a fait appel à Talend pour rassembler une quinzaine de sources de données utilisées par les ressources humaines au sein de leurs outils. L’idée : assurer un suivi des employés et de leurs compétences tout au long de leur carrière chez Orange. Il convient de évidemment maintenir la conformité de cet outil avec le RGPD tout en proposant un système robuste de gestion d’authentification. Cette suite logicielle RH dans le cloud est déployée dans toutes les divisions d’Orange.

Le développement a pris 3 ans et plusieurs itérations en mode Agile. Les données et solutions de Talend sont maintenant hébergées sur le Cloud OBS, une infrastructure entièrement gérée en France. Le groupe dirigé par Stéphane Richard et le fournisseur d’IPAAS se sont donc associés pour proposer cette solution d’ingestion, d’intégration, de sécurisation, d’accès aux outils et de visualisation des informations pour les professionnels des ressources humaines. « Nous avons construit une offre sur une plateforme unique et nous maîtrisons techniquement l’ensemble de notre suite. Il est souvent difficile de faire travailler tous le monde dans un même environnement, c’est ce que permet notre solution« , assure Jacques Padioleau, Vice-Président des Ventes France chez Talend.

Jerome Albregue big data paris
Jérôme Albregue, Manager d’équipe Data chez Orange Business Services

Selon Jérôme Albregue, manager data spécialisé dans l’intégration et le management de la data chez Orange Business Services, cela permet de faire gagner 20 % de temps aux équipes RH. Elles disposent de données fiables, de tableau de bord, d’ingestion automatique des informations, et gèrent plus facilement les accès. Les deux partenaires comptent prochainement proposer cette solution à un plus grand nombre d’entreprises.

Alors qu’IBM intègre et supporte de plus en plus de solutions open source, l’entreprise se confronte aux difficultés de la transformation des services informatiques. Par exemple, le passage sur des applications cloud natives coince auprès de certains DSI. La Vice-Présidente cloud IBM France évoque également les problèmes de skills et d’évolution des compétences. “Nous devons tous imaginer les fonctions du DSI de demain”, explique-t-elle.

La conduite du changement, le frein de l’adoption du Big Data

“La plupart des clients préfèrent disposer d’une boîte à outils sur mesure. L’aspect méthodologique s’avère le plus difficile à gérer. Les solutions Big Data demandent une très grande polyvalence. Nous devons les conseiller pour supporter une telle charge de travail. Nous avons des contrats de gestion sur une moyenne de 10 ans. Les clients doivent être formés. Ils doivent digérer une culture qui est basée sur le mouvement. Nous sommes en veille permanente. La conduite du changement s’avère difficile à mettre en place”, déclare de son côté Mohamed Mahdi Benaissa.

Jean Bernard Guidt, Partner en charge de l’activité Business & Technology chez Keyrus Management, perçoit les mêmes difficultés : “il faut pouvoir aider les métiers à concrétiser une idée, un cas d’usage et à le déployer à l’échelle. Le DSI doit donc plus seulement s’intéresser à la partie technologique, mais devenir un facilitateur de business pour ses collaborateurs”.

Le cabinet se concentre sur l’aide à la mise en place d’une stratégie data centric, de la réorchestration des architectures IT, BI et Big Data, de l’intégration de l’IA, puis l’implantation de solutions fiables et opérationnelles.Nous devons tout le temps être à la recherche de nouvelles technologies pour répondre aux besoins des clients”. En cela, l’appropriation de la valorisation des données observées chez les GAFAM devient de plus en plus courante dans les entreprises. “Elles vont déployer des outils qui vont permettre de régler un problème en particulier, mais aussi de générer des informations intéressantes pour créer de nouveaux services”.

Tailler des bijoux à partir des données brutes, voilà ce qui motive les acteurs « data centric ». Pour autant, le chemin est semé d’embûches, de choix difficiles, d’essais parfois infructueux. Innover serait pourtant le meilleur moyen de survivre. Quelle que soit la technologie déployée, le mot travail n’a jamais perdu son sens originel.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend