LeBigData.fr https://www.lebigdata.fr Le magazine du Big Data et du Cloud Computing Wed, 12 Aug 2020 15:37:45 +0000 fr-FR hourly 1 Comment la blockchain tire parti de l’intelligence artificielle https://www.lebigdata.fr/blockchain-intelligence-artificielle Wed, 12 Aug 2020 15:37:45 +0000 https://www.lebigdata.fr/?p=17358 Les avancées en matière d’intelligence artificielle (IA) peuvent grandement bénéficier à la blockchain et aux cryptomonnaies, tant sur le plan …

Cet article Comment la blockchain tire parti de l’intelligence artificielle a été publié sur LeBigData.fr.

]]>
Les avancées en matière d’intelligence artificielle (IA) peuvent grandement bénéficier à la blockchain et aux cryptomonnaies, tant sur le plan de la sécurisation des données que du trading.

Pour le grand public, l’IA contribue surtout sous la forme d’un assistant vocal à simplifier le quotidien en éliminant certaines tâches. De manière plus confidentielle, la technologie a également contribué ces dernières années à renforcer l’attrait des cryptomonnaies. Si bien que celles-ci pourraient prochainement concurrencer des valeurs plus traditionnelles. Mais comment cela se passe-t-il ? Voici quelques éléments de réponse.

Le trading de cryptomonnaie

Émergent réellement après la crise financière de la fin des années 2000, la blockchain n’a cessé depuis d’attirer l’attention des investisseurs de tous bords. Ces derniers allant sur des plateformes spécialisées comme etoro avis.

Si le marché a connu des hauts et des bas, le développement de cette industrie est actuellement indéniable. Ainsi, le marché pèsera cette année 339 milliards de dollars.

Au fur et à mesure que les investisseurs parient sur la blockchain, l’intelligence artificielle a un rôle de plus en plus prééminent dans le trading de cryptomonnaies. En effet, les traders peuvent avoir accès à des analyses plus précises et prendre des décisions éclairées grâce aux bots spécialement conçus pour le trading. Résultat : un meilleur retour sur investissement.

L’intelligence artificielle pour sécuriser la blockchain

Parmi les problèmes que le secteur de la blockchain doit encore faire face, les malwares et autres cyberattaques figurent en tête de liste. Chaque jour, 9 millions de dollars en cryptomonnaies changent ainsi de main de façon frauduleuse.

Malgré l’importance de cette problématique et les mesures prises par de nombreux acteurs impliqués, les attaques visant la blockchain réussissent encore le plus souvent. Jusqu’ici, ce sont les systèmes de cybersécurité usant de l’intelligence artificielle qui se révèlent les plus efficaces pour protéger la blockchain.

En effet, ils arrivent à identifier instantanément la nature d’une menace. Puis, ils la répertorient sur une liste noire pour prévenir une autre intrusion. Mieux, l’IA évolue au fil du temps, multipliant son efficacité à chaque menace.

Le minage de bitcoin

Afin de garantir l’intégrité de la blockchain, chaque transaction est vérifiée avant d’être ajoutée par les mineurs. À leur tour, ceux-ci reçoivent une récompense sous forme de cryptomonnaie. Seul problème : ce processus est trop pesant, à la fois pour les acteurs qui y prennent part, mais aussi pour l’environnement à cause de l’énergie nécessaire aux processeurs et cartes graphiques qui le font tourner.

De nombreuses entreprises de minage se sont tournées vers des cartes graphiques dotées d’IA. Et ce, Dans le but de réduire leur empreinte carbone. Ainsi, certaines firmes ont établi des écosystèmes basés sur l’intelligence artificielle où les mineurs se partagent la charge énergétique requise.

En plus de permettre des économies d’énergies, cette démarche produit également du profit. Ainsi, ces algorithmes contribuent à rendre le minage de bitcoins plus rapide, efficace et profitable.

En clair, le secteur technologique dans la globalité amorce un virage vers le machine learning. Et la blockchain et les cryptomonnaies devraient aussi bénéficier de l’intelligence artificielle.

Cet article Comment la blockchain tire parti de l’intelligence artificielle a été publié sur LeBigData.fr.

]]>
Des chercheurs russes accélèrent le Quantum Computing grâce à un réseau de neurones quantique https://www.lebigdata.fr/chercheurs-russes-reseau-neurones-quantique Wed, 12 Aug 2020 13:00:52 +0000 https://www.lebigdata.fr/?p=17371 Des chercheurs russes de l’institut Skoltech, basé à Moscou, ont développé une nouvelle approche pour l’informatique quantique. Leur méthode est …

Cet article Des chercheurs russes accélèrent le Quantum Computing grâce à un réseau de neurones quantique a été publié sur LeBigData.fr.

]]>
Des chercheurs russes de l’institut Skoltech, basé à Moscou, ont développé une nouvelle approche pour l’informatique quantique. Leur méthode est basée sur l’utilisation d’un réseau de neurones quantique…

À l’heure actuelle, le calcul des interactions quantiques repose sur le stockage et le traitement des données quantiques sur des ordinateurs traditionnels par le biais d’algorithmes classiques.

Les modèles théoriques capables de prédire les résultats de ces interactions complexes sont peu nombreux, et les scientifiques n’ont donc d’autre choix que de se tourner vers des techniques de  » sampling  » telles que la méthode Monte Carlo.

Les mêmes calculs sont effectués encore et encore en ajoutant une part de hasard à chaque fois. Cette approche produit des résultats corrects, mais elle requiert une puissance de calcul démesurée.

Les chercheurs du Skolkovo Institute of Science and Technology (Skoltech) de Moscou ont donc tenté de développer une nouvelle méthode plus efficace. Plutôt que d’exploiter la part de hasard des méthodes de sampling, leur approche repose sur les propriétés spécifiques des ordinateurs quantiques.

Cette nouvelle technique développée par Skoltech utilise un algorithme appelé  » variational quantum eigensolver « . Cet algorithme permet de créer une description quantique des positions de départ pour tous les objets / forces interagissant entre eux.

Des informations additionnelles sont ajoutées à partir d’un réseau de neurones classique pour estimer le type d’interaction. Puis, un réseau de neurones quantique calcule l’interaction et recherche les patterns dans le résultat.

La méthode de Skoltech est convaincante, mais reste pour l’instant théorique

Lors de tests effectués par les chercheurs, un classificateur quantique a été entraîné à reconnaître les phases de la matière. Il a atteint une précision de 99% pour le modèle Ising et 94% pour le modèle XXZ. Les résultats sont donc encourageants.

Cependant, il n’existe pas encore d’ordinateur quantique conçu pour fonctionner avec cette méthodologie. Cette méthode reste donc théorique pour le moment, mais pourrait représenter un véritable pas en avant pour l’informatique quantique

Cet article Des chercheurs russes accélèrent le Quantum Computing grâce à un réseau de neurones quantique a été publié sur LeBigData.fr.

]]>
Cloud : le marché des IaaS a crû de de 37,3% en 2019 selon Gartner https://www.lebigdata.fr/cloud-marche-iaas-2019-gartner Wed, 12 Aug 2020 08:53:13 +0000 https://www.lebigdata.fr/?p=17357 Les analystes de Gartner révèlent la croissance explosive du marché des IaaS (infrastructure en tant que service) Cloud. À l’échelle …

Cet article Cloud : le marché des IaaS a crû de de 37,3% en 2019 selon Gartner a été publié sur LeBigData.fr.

]]>
Les analystes de Gartner révèlent la croissance explosive du marché des IaaS (infrastructure en tant que service) Cloud. À l’échelle mondiale, le marché a crû de 37,3% en un an pour atteindre une valeur colossale de 44,5 milliards de dollars…

Il n’est pas difficile de s’en rendre compte : l’adoption du Cloud Computing est en pleine explosion dans tous les secteurs d’entreprises. Cependant, les analystes de Gartner confirment aujourd’hui cette tendance à travers un nouveau rapport.

Selon les experts, le marché mondial des IaaS (infrastructures en tant que service) a connu une croissance de 37,3% en 2019 pour atteindre une valeur de 44,5 milliards de dollars. Une croissance directement liée à la transformation numérique des entreprises.

Les infrastructures Cloud élastiques sont nécessaires aux nouvelles technologies telles que le Edge Computing, l’intelligence artificielle, le Machine Learning ou la 5G. Il est donc logique que les entreprises fassent appel aux fournisseurs Cloud.

Ce marché est accaparé par les cinq leaders AWS, Microsoft Azure, Google Cloud, Alibaba et Tencent qui s’en partagent 80%. Ceci représente 3% de plus qu’en 2018.

Le grand leader du marché reste, cette année encore, AWS qui a généré 19,99 milliards de dollars de revenus grâce à ses services IaaS en 2019. Le géant de Seattle détient 45% du marché à lui seul.

Néanmoins, malgré une hausse de revenus de 29% par rapport à 2018, les parts du marché d’AWS ont diminué de 2,9%. Ceci s’explique par l’arrivée de nouveaux acteurs qui gagnent du terrain sur un marché devenu mature.

En outre, l’adoption du multi-cloud cause du tort à l’hégémonie d’Amazon. Toujours selon Gartner, plus de 80% des entreprises ont adopté une stratégie multi-cloud ou comptent le faire d’ici la fin de l’année 2020.

Le marché des IaaS Cloud : un champ de bataille pour les géants de la tech américains et chinois

De leur côté, Microsoft Azure et Google Cloud ont rencontré une croissance explosive. La part du marché des IaaS de Microsoft est passée de 15,6% en 2018 à 17,9% en 2019. Ces revenus ont augmenté de 57,8% pour atteindre 7,94 milliards de dollars. Plus de la moitié de ces revenus proviennent d’Amérique du Nord, où le géant de Redmond profite de sa forte présence en entreprise.

Google Cloud est passé de 4,1% de parts du marché en 2018 à 5,3% en 2019. Les revenus ont augmenté de 80,1% pour atteindre 2,36 milliards de dollars. Cette croissance est liée au lancement de services spécifiquement dédiés à six industries briguées par la firme : la finance, la santé, la fabrication, le secteur public, le retail et les médias.

Le géant chinois Alibaba Cloud parvient à s’immiscer entre Microsoft Azure et Google Cloud pour atteindre la troisième place du marché. Ses revenus IaaS ont augmenté de 62,4% pour atteindre 4,06 milliards de dollars en 2019 contre 2,5 milliards de dollars en 2018. Ses parts du marché sont passées de 7,7% à 9,1%.

Enfin, Tencent, compatriote et grand rival d’Alibaba, est celui qui a rencontré la plus forte croissance parmi les cinq leaders. Ses revenus IaaS ont augmenté de 101,5% en un an et atteignent désormais 1,23 milliard de dollars. Ses parts du marché sont passées de 1,9% à 2,8%.

Pour ses futurs rapports, Gartner précise que les segments IaaS et PaaS (plateformes en tant que service) seront désormais combinés en une seule catégorie appelée  » Cloud Infrastructure and Platform Services  » (CIPS). Ce changement vise à refléter l’évolution de l’industrie, où ces deux types de services sont désormais presque inséparables à l’achat comme à la vente.

En 2019, le marché mondial des  » CIPS « , donc, a crû de 42,3% pour passer de 44,6 milliards de dollars en 2018 à 63,4 milliards de dollars en 2019. En combinant IaaS et PaaS, le classement des vendeurs est différent puisque le podium est occupé par AWS, Microsoft et Alibaba suivis par Tencent et Oracle avec 2,8% de parts du marché chacun…

Cet article Cloud : le marché des IaaS a crû de de 37,3% en 2019 selon Gartner a été publié sur LeBigData.fr.

]]>
Capital One : une amende de 80 millions $ pour la fuite de données de 2019 https://www.lebigdata.fr/capital-one-amende-fuite-donnees Tue, 11 Aug 2020 13:30:42 +0000 https://www.lebigdata.fr/?p=17344 Après avoir subi l’une des plus larges fuites de données de 2019, Capital One vient d’écoper d’une amende de 80 …

Cet article Capital One : une amende de 80 millions $ pour la fuite de données de 2019 a été publié sur LeBigData.fr.

]]>
Après avoir subi l’une des plus larges fuites de données de 2019, Capital One vient d’écoper d’une amende de 80 millions de dollars. La banque américaine est accusée d’avoir négligé sa cybersécurité…

En 2019, la fuite de données de la banque Capital One impactait plus de 100 millions d’Américains et 6 millions de Canadiens. À présent, l’Office of the Comptroller of the Currency vient d’infliger une amende de 80 millions de dollars à l’entreprise.

Cette dernière est accusée d’avoir négligé sa cybersécurité, et ce sont ces manquements qui ont permis à la fuite de survenir. Il est notamment reproché à Capital One de ne pas avoir créé de système d’évaluation des risques suffisamment efficace avant de transférer ses principaux systèmes informatiques vers le Cloud public.

Par ailleurs, les failles de sécurité n’ont pas été comblées assez promptement. C’est ce qui a permis à la coupable, Paige Thompson, de tirer profit du firewall  » mal configuré  » de l’application web pour s’infiltrer et dérober les données personnelles de dizaines de millions de victimes. Elle sera quant à elle jugée en 2021.

Capital One : 75 cents de compensation par victime

L’amende peut sembler massive, mais compte tenu du nombre de victimes, elle ne représente que 75 cents par personne. Une compensation pour le moins légère, sachant que des données très sensibles ont été exposées telles que les adresses, les revenus, les numéros de compte et les scores de crédit des victimes.

En parallèle, Capital One avait aussi offert gratuitement un monitoring de crédit et une protection contre l’usurpation d’identité aux clients impactés. Elle affirme par ailleurs avoir investi d’importantes ressources dans sa cybersécurité pour répondre à la demande de l’OCC et de la Federal Reserve.

Cet article Capital One : une amende de 80 millions $ pour la fuite de données de 2019 a été publié sur LeBigData.fr.

]]>
Dark Web : plus de 900 mots de passe de VPN d’entreprise en fuite https://www.lebigdata.fr/dark-web-vpn-pulse-secure Tue, 11 Aug 2020 13:00:18 +0000 https://www.lebigdata.fr/?p=17368 Les chercheurs en sécurité de KELA ont découvert sur le Dark Web les identifiants et mots de passe de plus …

Cet article Dark Web : plus de 900 mots de passe de VPN d’entreprise en fuite a été publié sur LeBigData.fr.

]]>
Les chercheurs en sécurité de KELA ont découvert sur le Dark Web les identifiants et mots de passe de plus de 900 serveurs d’entreprise du VPN Pulse Secure. Ces données ont été dérobées par un hacker en exploitant une vulnérabilité pour laquelle un patch correctif était disponible depuis plus d’un an…

Les VPN sont couramment utilisés en entreprise pour se connecter au réseau à distance de façon sécurisée. Cette pratique a été encore davantage popularisée dans le contexte du confinement lié au COVID-19.

Malheureusement, même les pratiques censées renforcer la cybersécurité peuvent avoir l’effet inverse. L’expert en sécurité KELA annonce avoir découvert sur le Dark Web une liste de plus de 900 identifiants et mots de passe du VPN Pulse Secure, utilisé par de nombreuses entreprises.

Les noms d’utilisateur, mots de passe, et les adresses IP de plus de 900 serveurs d’entreprise de Pulse Secure VPN ont été partagés en texte brut sur le Dark Web par un hacker russe. La liste contenait aussi la version du firmware de serveur, les clés de serveur SSH, les hases des mots de passe, les détails du compte administrateur et l’historique des connexions.

En observant la liste des serveurs partagée par le hacker, les chercheurs de Bank Security se sont aperçus que la version du firmware contenait systématiquement la vulnérabilité CVE-2019-11510. Or, cette vulnérabilité a été corrigée par Pulse Secure au début de l’année 2019.

Le hacker du Dark Web a exploité une faille du VPN Pulse Secure patchée depuis plus d’un an

Les entreprises victimes de cette fuite de données ont donc eu le tort de ne pas télécharger le correctif, malgré les recommandations du DHS et de nombreux chercheurs en sécurité. C’est ce qui a permis aux hackers de les prendre pour cible en exploitant la faille. Au total, 677 entreprises seraient concernées.

Pour trouver les VPN vulnérables, le hacker a scanné les adresses internet IPv4 entre le 24 juin et le 8 juillet 2020 et a ensuite exploité la vulnérabilité connue pour accéder aux serveurs. Il s’est ensuite emparé des données pour les compiler dans un répertoire central.

En conclusion, gardez à l’esprit qu’il est indispensable de télécharger et de déployer les correctifs de vulnérabilités dès qu’ils sont disponibles. Ceci est valable pour les VPN, mais aussi pour tous les autres types de logiciels que votre entreprise utilise. Dans le cas contraire, cette négligence peut avoir des conséquences catastrophiques.

Cet article Dark Web : plus de 900 mots de passe de VPN d’entreprise en fuite a été publié sur LeBigData.fr.

]]>
Humain vs IA : un pilote de F16 va affronter un algorithme en combat aérien https://www.lebigdata.fr/pilote-f16-ia-combat-aerien Tue, 11 Aug 2020 08:30:24 +0000 https://www.lebigdata.fr/?p=17337 Pour la grande finale de la compétition AlphaDogfight Trials, organisée par la DARPA des États-Unis, un pilote de F16 professionnel …

Cet article Humain vs IA : un pilote de F16 va affronter un algorithme en combat aérien a été publié sur LeBigData.fr.

]]>
Pour la grande finale de la compétition AlphaDogfight Trials, organisée par la DARPA des États-Unis, un pilote de F16 professionnel affrontera une intelligence artificielle lors d’une simulation de combat aérien. Vers une nouvelle humiliation pour l’humanité face à la machine ?

Lorsque l’intelligence artificielle sera suffisamment développée pour se retourner contre ses créateurs, de nombreux experts craignent qu’une guerre éclate entre les humains et les machines. Un sombre présage digne des films de science-fiction les plus terrifiants.

Si le soulèvement des robots n’est pas pour demain, l’IA et l’Homme vont s’affronter de façon frontale pour la première fois à la fin du mois d’août 2020. La DARPA (Defense Advanced Research Projects Agency) des États-Unis annonce un combat entre un pilote de F16 et un algorithme dans le cadre d’une simulation de combat aérien.

Cette simulation sera la troisième et dernière étape de la compétition AlphaDogfight Trials organisée par la DARPA. Cette compétition a été créée pour démontrer le potentiel des systèmes IA lors des combats aériens.

L’événement en lui-même s’inscrit également dans le cadre du programme Air Combat Evolution (ACE) lancé en 2019 par la DARPA. Ce programme vise à automatiser les combats aériens, et à améliorer la fiabilité des systèmes IA dans les avions.

Huit équipes ont été sélectionnées l’an dernier pour participer à cette compétition finale. Il s’agit de Aurora Flight Sciences, EpiSys Science, Georgia Tech Research Institute, Heron Systems, Lockheed Martin, Perspecta Labs, PhysicsAI et SoarTech.

Au premier jour de la compétition, les équipes piloteront leurs algorithmes respectifs contre cinq systèmes IA développés par le Johns Hopkins Applied Physics Lab. Le deuxième jour, elles s’affronteront entre elles lors d’un tournoi.

Enfin, au troisième jour, les quatre meilleures équipes s’affronteront lors d’un tournoi à élimination directe. Le grand gagnant affrontera un pilote humain.

Une nouvelle humiliation pour l’humanité ?

On ignore pour l’instant qui de l’Homme ou de l’IA remportera le combat final. Il est possible que l’humain parvienne à prouver qu’il reste supérieur pour piloter des engins de guerre aériens. Néanmoins, il pourrait aussi s’agir d’une nouvelle défaite cuisante, dans la lignée de la victoire de Deep Blue contre Garry Kasparov aux échecs

Quoi qu’il en soit, le principal objectif de cet événement reste de démontrer que les machines sont dignes de confiance sur le champ de bataille. Comme le souligne le Colonel Dan Javorsek, directeur de programme au Strategic Technology Office de la DARPA,  » si la championne des IA gagne le respect d’un pilote de F16, nous aurons franchi une étape vers la collaboration entre l’Homme et la machine dans le combat aérien. Il s’agit du but du programme ACE « .

Cette compétition prendra place le 20 août 2020. À l’origine, il devait s’agit d’un événement organisé à l’AFWERX de Las Vegas. Néanmoins, à cause de la pandémie de COVID-19, l’événement sera finalement virtuel et il sera possible d’admirer le spectacle en ligne. Les militaires de l’Air Force, de la Navy et de la Marine Corps, ainsi que les leaders militaires et les passionnés d’IA du monde entier sont particulièrement conviés à y assister…

Cet article Humain vs IA : un pilote de F16 va affronter un algorithme en combat aérien a été publié sur LeBigData.fr.

]]>
Le MIT crée une base de données qui apprend au fil du temps grâce à l’IA https://www.lebigdata.fr/mit-base-donnees-ia Tue, 11 Aug 2020 08:06:21 +0000 https://www.lebigdata.fr/?p=17353 Le laboratoire CSAIL du MIT a créé un système de stockage de données basé sur l’intelligence artificielle. Grâce au Machine …

Cet article Le MIT crée une base de données qui apprend au fil du temps grâce à l’IA a été publié sur LeBigData.fr.

]]>
Le laboratoire CSAIL du MIT a créé un système de stockage de données basé sur l’intelligence artificielle. Grâce au Machine Learning, ce système est capable d’apprendre au fil du temps à s’optimiser de manière autonome pour traiter plus efficacement les requêtes des utilisateurs…

Face à la hausse massive du volume de données généré par l’humanité, il devient indispensable de réfléchir à de nouveaux systèmes de stockage. Pour que le Big Data soit avantageux, il est nécessaire de pouvoir continuer à stocker et à traiter les données.

La solution pourrait provenir du laboratoire Computer Science and Artificial Intelligence Laboratory (CSAIL) du MIT. Une équipe de chercheurs de ce laboratoire a créé un système de type  » instance-optimized « .

Traditionnellement, les systèmes de stockage et les bases de données sont conçus pour être compatibles avec une large variété d’applications. Cette approche offre l’avantage de ne pas avoir à créer un nouveau système pour chaque application.

Néanmoins, les performances de ces systèmes ne sont pas maximisées. Pire encore, il est parfois nécessaire pour les administrateurs de les configurer manuellement pour chaque application pour que les performances soient correctes.

Au contraire, l’approche du MIT consiste à créer des systèmes capables de s’optimiser et de se réorganiser partiellement de manière autonome en fonction des données que l’on y stocke ou des workloads à traiter.

Selon le professeur Tim Kraska du MIT, «  cela revient à créer un nouveau système de base de données pour chaque application, ce qui est économiquement impossible avec les designs de systèmes traditionnels « .

Le MIT veut révolutionner le stockage de données grâce au Machine Learning

Afin de concrétiser cette idée, Kraska et son équipe ont développé deux systèmes : Tsunami et Bao. Le premier, Tsunami, utilise le Machine Learning pour réorganiser automatiquement la disposition d’un ensemble de données en fonction du type de requête formulées par les utilisateurs.

Selon les premiers tests, cette approche permet d’exécuter les requêtes 10 fois plus rapidement que les systèmes traditionnels les plus performants. De plus, les ensembles de données peuvent être organisés en index 100 fois plus légers que d’ordinaire.

Le second système, Bao, se focalise sur l’amélioration de l’efficacité de l’optimisation de requête grâce au Machine Learning. Il est capable d’apprendre au fil du temps à mieux optimiser les requêtes en choisissant le meilleur  » plan de requête  » pour chaque situation.

Le système Bao est la première approche de l’optimisation de requête  » basée sur l’apprentissage  » à être pleinement intégré au fameux système de gestion de base de données PostgreSQL. Selon les tests, les plans de requêtes produits par Bao sont jusqu’à 50% plus rapides que ceux créés par l’optimisateur classique de PostgreSQL. Ce système pourrait donc fortement réduire le coût des services Cloud basés sur PostgreSQL comme Amazon Redshift.

En combinant les deux systèmes Tsunami et Bao, Kraska et son équipe espèrent créer le tout premier système de base de données  » instance-optimized « . Ce système apporterait les meilleures performances pour chaque application sans paramétrage manuel.

Les développeurs seraient libérés de ce fastidieux labeur, tandis que les performances seraient accrues et les coûts réduits. À terme, les requêtes pourront non seulement être effectuées plus rapidement, mais pourraient aussi permettre de répondre à des questions qu’il n’était pas possible de traiter jusqu’à présent…

Cet article Le MIT crée une base de données qui apprend au fil du temps grâce à l’IA a été publié sur LeBigData.fr.

]]>
BPO : qu’est-ce que le Business Process Outsourcing ? https://www.lebigdata.fr/bpo-definition Tue, 11 Aug 2020 06:30:27 +0000 https://www.lebigdata.fr/?p=9205 Le BPO, ou Business Process Outsourcing, est l’externalisation des processus d’affaires. Lorsqu’une entreprise ne peut accomplir certaines missions en interne, …

Cet article BPO : qu’est-ce que le Business Process Outsourcing ? a été publié sur LeBigData.fr.

]]>
Le BPO, ou Business Process Outsourcing, est l’externalisation des processus d’affaires. Lorsqu’une entreprise ne peut accomplir certaines missions en interne, elle fait appel à un fournisseur pour s’en charger à sa place. Découvrez tout ce que vous devez savoir à ce sujet.

Outsourcing définition

Afin d’accomplir certaines missions hautement qualifiées, une entreprise doit parfois pallier à son manque de compétences en interne en sollicitant l’aide d’un tiers. C’est ce que l’on appelle le Business Process Outsourcing, ou externalisation des processus d’affaires en français.

BPO ou Business Process Outsourcing : qu’est-ce que c’est ?

business process outsourcing définition

Le service d’externalisation aussi appelé BPO, est une pratique d’entreprise qui consiste à déléguer à un prestataire une tâche ou l’intégralité d’un métier. L’entreprise externalise la mission qu’elle ne peut réaliser par elle-même.

A l’origine, l’externalisation et la délocalisation sont des pratiques employées dans l’industrie de la fabrication. Toutefois, au fil du temps, un grand nombre d’industries et dont toutes sortes d’entreprises du secteur tertiaire l’ont adopté.

Dans le domaine de l’informatique, les entreprises externalisent généralement des missions hautement qualifiées. Par exemple, la programmation de logiciels ou l’administration de réseau sont des tâches qui peuvent faire l’objet d’un BPO. Les entreprises peuvent aussi délocaliser intégralement leur pôle informatique.

BPO : quels sont les avantages ?

bpo avantages

Les avantages du Business Process Outsourcing sont nombreux. Tout d’abord, cette pratique permet bien souvent de réaliser des économies. Un fournisseur externe d’un pays étranger peut par exemple effectuer une tâche à moindre coût. De même, dans certaines situations, il est possible de payer moins d’impôts en externalisant une tâche. Les contrats BPO permettent aussi de gagner en flexibilité, et de réagir plus rapidement aux changements qui surviennent sur le marché.

En outre, en externalisant les missions qui ne sont pas au coeur de leur activité, les entreprises peuvent se focaliser sur les opérations qui les distinguent sur leur marché. Il peut donc s’agir d’un avantage compétitif.

De leur côté, les fournisseurs BPO sont généralement spécialisés dans la tâche pour laquelle ils sont employés. En général, ils sont donc en mesure d’effectuer ces missions plus rapidement et de manière plus performante.

BPO : quels sont les risques ?

bpo risques

Cependant, le BPO ne présente pas que des avantages. Les entreprises qui adoptent cette pratique s’exposent aussi à des risques. Tout d’abord, il peut s’agir d’un risque pour la sécurité informatique. Pour cause, les entreprises qui externalisent des missions sont dans l’obligation de créer des connexions technologiques avec leur fournisseur.

Ces connexions sont exploitables par des cybercriminels pour attaquer le système informatique de l’entreprise. De plus, les organisations se voient souvent contraintes de partager des données sensibles avec leurs fournisseurs. Là encore, ces données risquent donc davantage d’être dérobées par un tiers mal intentionné, ou même exploitées par un fournisseur malhonnête.

Le BPO peut aussi entraîner des coûts imprévus. Les entreprises peuvent parfois sous-estimer la quantité de travail nécessaire au fournisseur pour accomplir la mission, ou tout simplement négliger le calcul des coûts. En conséquence, la facture peut s’avérer plus importante que prévu.

En outre, les relations avec un fournisseur BPO peuvent se révéler tendues. S’il s’agit d’un fournisseur étranger, les entreprises peuvent faire face à des difficultés de communication ou même à des différences culturelles problématiques. Il convient donc de peser le pour et le contre minutieusement avant de décider d’employer cette pratique.

BPO et Big Data

big data bpo

Les bienfaits du Big Data sont nombreux, mais beaucoup d’entreprises n’ont pas les moyens de recruter des analystes spécialisés ou d’investir dans l’infrastructure nécessaire. C’est pourquoi beaucoup d’entre elles se tournent vers le Business Process Outsourcing pour la gestion et l’analyse de données.

Les avantages du BPO pour le Big Data sont généralement les mêmes que dans les autres domaines. Cette pratique permet de réduire les coûts, de laisser les cadres et managers se concentrer sur le coeur de l’activité, et de profiter d’une flexibilité accrue. Par ailleurs, vous pourrez obtenir des résultats plus fiables et plus rapidement grâce à l’expertise de professionnels expérimentés du Big Data.

Cependant, il convient de prendre plusieurs mesures avant d’envisager la sous-traitance du Big Data. Tout d’abord, il est important de commencer par mettre en place une stratégie Big Data en définissant notamment des objectifs et des besoins concrets. Cette stratégie peut être étoffée par la suite à l’aide du sous-traitant.

Il est également judicieux de choisir pour sous-traitant un analyste de données doté d’une expérience et du compréhension de votre domaine d’activité. Pour cause, l’analyse de données doit s’inscrire dans la réalité du métier pour être efficace et dévoiler de réelles menaces et opportunités. Cependant, les analystes que vous choisirez doivent aussi bénéficier de solides connaissances en mathématiques, en maîtriser les outils Big Data tels qu’Hadoop.

Investissez aussi dans les meilleurs outils Big Data, offrant suffisamment d’élasticité et de performances pour que le sous-traitant puisse exploiter pleinement vos données. Pour finir, assurez-vous de prendre d’importantes mesures de sécurité par le biais de contrats garantissant la protection de vos données et la conformité de votre sous-traitant aux règlements en vigueur tels que le RGPD. Les données sont précieuses et sensibles, et il est donc capital de prendre des précautions lorsqu’on sous-traite leur gestion…

En résumé, l’outsourcing du Big Data offre de nombreux bienfaits pour votre entreprise et vous permettra de surpasser la concurrence à moindre coût. Cependant, il est important de bien préparer la sous-traitance de l’analyse de données.

Business Process Reimagination : comment l’intelligence artificielle transforme le BPO ?

bpo ia rpa

Au fil des dernières années, le marché du Business Process Outsourcing a été fortement impacté par deux technologies émergentes : l’intelligence artificielle, et le Robotic Process Automation (automatisation des processus robotisés).

La réinvention des services liée aux technologies IA et RPA est désignée par le terme  » business process reimagination « . Pour cause, ces technologies permettent non seulement de réinventer les services de BPO déjà existants, mais aussi d’augmenter la pénétration des services partagés au sein des entreprises.

Dans le domaine des services d’entrée de données, par exemple, l’automatisation réduit les risques de commettre des erreurs. De plus, le processus d’entrée des données s’en trouve plus rapide et plus sécurisé.

Avec l’aide du Cloud Computing, de grands ensembles de données complexes peuvent être gérés plus efficacement. L’entrée automatisée des données permet d’entrer des données en temps réel et offre aux entreprises plus de flexibilité et de réactivité.

Selon les experts de NelsonHall, le marché de la  » Business Process Reimagination  » devrait atteindre une valeur totale de 8 milliards de dollars d’ici 2022 alors qu’il ne représentait que 701 millions de dollars en 2017. Ceci représenterait un taux de croissance annuel de 63%.

Néanmoins, l’impact de l’intelligence artificielle sur le marché des BPO n’est pas uniquement positif. Ces dernières années, comme dans d’autres secteurs, de nombreux professionnels de ce secteur ont perdu leur travail à cause de l’automatisation.

De nombreuses entreprises cherchent actuellement la meilleure manière de faire face à ce profond changement. L’un des solutions semble être de former les employés à des tâches nécessitant des prises de décisions trop complexes et importantes pour être laissées à une IA. C’est par exemple le cas du conseil, des service Cloud et mobiles, ou encore du  » Knowledge Process Outsourcing  » (KPO).

Les tâches manuelles, comme l’entrée manuelle de données, risquent en revanche d’être massivement automatisée. De nombreuses personnes risquent donc de perdre leur emploi. Néanmoins, à terme, cette transformation technologique devrait créer plus d’emplois qu’elle n’en fait disparaître.

Cet article BPO : qu’est-ce que le Business Process Outsourcing ? a été publié sur LeBigData.fr.

]]>
Intel victime d’une fuite de données massive, 20Go de propriété intellectuelle exposés https://www.lebigdata.fr/intel-fuite-donnees-propriete-intellectuelle Mon, 10 Aug 2020 13:30:40 +0000 https://www.lebigdata.fr/?p=17340 Intel est victime d’une fuite de données massive, avec plus de 20Go de propriété intellectuelle exposés sur internet. Pire encore …

Cet article Intel victime d’une fuite de données massive, 20Go de propriété intellectuelle exposés a été publié sur LeBigData.fr.

]]>
Intel est victime d’une fuite de données massive, avec plus de 20Go de propriété intellectuelle exposés sur internet. Pire encore : il ne s’agirait que du premier épisode d’une longue série de fuites à venir…

En 2020, les plus grandes entreprises du monde doivent payer leurs négligences de cybersécurité au prix fort. Après le GigaLeak ayant révélé tous les secrets de Nintendo, c’est au tour d’Intel d’être frappé par une fuite de données calamiteuse.

La firme américaine est victime d’une fuite de données interne. Au total, plus de 20Go de documents et d’outils ont été dérobés et publiés sur internet.

Les fichiers dévoilés s’étendent sur plus d’une décennie, et regroupent notamment des templates de présentation, du code BIOS et des outils de débogage. Il s’agit très probablement de la plus grande fuite de propriété intellectuelle qu’ait jamais connue un fabricant de puces.

Fort heureusement, a priori, aucun document réellement sensible pour Intel n’a été exposé. Par exemple, aucun schéma de design de CPU ou de GPU ne semble avoir été accaparé. Dans le cas contraire, les secrets du géant américain auraient été livrés aux mains de ses concurrents.

Malgré cela, les documents en fuite ont une certaine valeur et leur fuite pourrait nuire à Intel sur le long terme. Les  » firmware blobs « , notamment, pourraient être utilisés pour extraire des informations précieuses via l’ingénierie inversée.

La fuite de 20Go de données d’Intel n’est que le début d’une longue série

L’incident a été révélé par Till Kottmann, ingénieur logiciel suisse. Ce dernier a été directement averti par le hacker à l’origine du piratage. Selon lui, il ne s’agit que d’un début. D’autres documents volés à Intel seront dévoilés prochainement.

De son côté, Intel a reconnu les faits à travers un bref communiqué de presse. Selon la firme, la fuite est probablement liée au Intel Ressource and Design Center : un répertoire sécurisé mis à disposition des partenaires de l’entreprise, pour leur ouvrir l’accès à des schémas et documents confidentiels. Un individu disposant de l’accès aurait téléchargé et partagé les données.

Cependant, il est aussi possible que les documents aient été récupérés auprès d’un partenaire d’Intel. En effet, des documents d’accord de non-divulgation inclus dans la fuite mentionneraient le partenaire en question…

Cet article Intel victime d’une fuite de données massive, 20Go de propriété intellectuelle exposés a été publié sur LeBigData.fr.

]]>
OVH : tout savoir sur le géant français du Cloud Computing https://www.lebigdata.fr/ovh-tout-savoir Mon, 10 Aug 2020 09:00:12 +0000 https://www.lebigdata.fr/?p=12151 OVH est le géant français du Cloud Computing et de l’hébergement web. Découvrez tout ce que vous devez savoir sur …

Cet article OVH : tout savoir sur le géant français du Cloud Computing a été publié sur LeBigData.fr.

]]>
OVH est le géant français du Cloud Computing et de l’hébergement web. Découvrez tout ce que vous devez savoir sur cette entreprise et sur ses différentes offres Cloud.

À l’échelle mondiale, le marché du Cloud Computing est largement dominé par les entreprises américaines Amazon Web Services, Microsoft Azure, Google Cloud, et IBM. Cependant, un irréductible français résiste, encore et toujours : OVH.

OVH : qu’est-ce que c’est ?

ovh data centers

Fondé à Paris en 1999 par Octave Klaba, OVH est une entreprise française dédiée à l’hébergement web et au Cloud Computing. Bien qu’encore méconnu à l’internationale pour le moment, OVH est le leader français et européen du Cloud.

La firme gère et maintient 28 Data Centers répartis sur 19 pays, pour un total de 300 000 serveurs également conçus et assemblés par ses soins. Elle y héberge 18 millions d’applications web, et plusieurs centaines de milliers d’instances Cloud par mois.

La plupart des Data Centers sont basés en Europe, et principalement en France avec 7 centres à Roubaix, 3 à Paris et 3 à Strasbourg. C’est pourquoi il s’agit d’un excellent choix de fournisseur Cloud si vous souhaitez profiter des multiples avantages liés à la proximité des serveurs : performances, conformité, sécurité, qualité du service client…

Cependant, depuis 2017, OVH affiche sa volonté de devenir l’un des leaders mondiaux du Cloud. Cette expansion internationale se traduit par la mise en place de 6 Data Centers au Québec, 1 à Vint Hill, aux États-Unis, 1 à Sydney et 1 à Singapour.

OVH totalise 1 300 000 clients, parmi lesquels 14 des 40 sociétés du CAC 40 et 35 des 100 plus gros sites de e-commerce français.

Quelles sont les différentes offres Cloud d’OVH ?

Par le passé, OVH était connu pour son service de stockage Cloud intitulé  » hubiC «  comparable à Dropbox et lancé en 2011. Cependant, en mai 2018, face à une concurrence de plus en plus rude, la firme a décidé de cesser le développement de ce service et de le fermer aux nouvelles inscriptions.

Désormais, OVH se focalise sur sa principale activité : fournir des services Cloud aux développeurs, aux entreprises tech et aux professionnels de tous les secteurs.

Les serveurs dédiés

Les différentes gammes de serveurs dédiés professionnels permettent aux clients de profiter des capacités d’un serveur performant à distance par le biais du Cloud. Les serveurs dédiés de la firme sont répartis sur un total de six gammes, et leur prix va de 59,99 euros par mois pour le nouveau Rise 1 à plus de 1600 euros par mois pour les plus haut de gamme. En fonction de leurs besoins en termes de performances et de leurs cas d’usage, les clients peuvent choisir la solution qui leur convient.

Les serveurs privés virtuels (VPS)

Les serveurs privés virtuels (VPS), quant à eux, sont répartis en trois catégories. Le VPS SSD est le plus abordable, avec un prix de 3,59 euros par mois. Le VPS Cloud, qui permet de profiter d’une disponibilité garantie, est proposé pour 9,59 euros par mois. Pour le même tarif, il est possible d’opter le VPS Cloud RAM offrant davantage de mémoire vive.

Les utilisateurs peuvent ajouter à leurs serveurs virtuels de l’espace de stockage ou des ressources supplémentaires à volonté en quelques clics seulement. Ces VPS sont fournis avec plusieurs services, dont les principales distributions et panneaux de gestion web, la protection Anti-DDOS, le manager simplifié et l’API OVH.

Le Cloud public OVH

Sur son Cloud public, OVH propose un service de machines virtuelles ainsi qu’un service de stockage. Ce Cloud public est basé sur OpenStack, une technologie ouverte et standard qui garantit la réversibilité. Cela signifie qu’il est possible d’utiliser la même API, mettre après un changement de fournisseur.

Avec le service d’instances de serveurs virtuels, les utilisateurs peuvent déployer en moins d’une minute des VM pour profiter de la puissance de CPU, de la RAM et de la capacité de stockage dont ils ont besoin. L’utilisation est facturée à l’heure, et il est possible d’ajouter des ressources sans réinstallation.

En plus de cette flexibilité, les instances Cloud public OVH se distinguent par une haute disponibilité, une simplicité d’utilisation, et une portabilité grâce à sa base open source. La sécurité des données est également assurée. En outre, les utilisateurs peuvent profiter d’un large catalogue d’applications Cloud préinstallées.

Ces machines virtuelles peuvent être utilisées pour de multiples cas d’usage tels que la migration d’une application vers le Cloud, la gestion des montées en charge, ou encore l’accélération des analyses Big Data.

En ce qui concerne le stockage Cloud, OVH propose une offre de stockage objet, basée sur OpenStack Swift, et de l’archivage Cloud à long terme. Les utilisateurs peuvent ajouter des disques additionnels à volonté. Les volumes classiques (0,04€ HT par mois et par Go) garantissent des performances d’au moins 200 opérations d’entrée / sortie par seconde, tandis que les volumes  » high speed  » (0,08€ HT par mois et par Go) peuvent aller jusqu’à 3000 opérations par seconde.

Le Cloud privé d’OVH

Pour les entreprises aux besoins plus importants, OVH propose également son Cloud privé  » Private Cloud « . Celui-ci permet de profiter de la même flexibilité qu’avec les machines virtuelles du Cloud public, à l’échelle d’un Data Center entier. En effet, les utilisateurs de cette solution profitent d’une infrastructure hardware est 100% dédiée.

L’infrastructure matérielle est virtualisée via la technologie VMware, et OVH se charge intégralement de la gestion. Ainsi, les utilisateurs sont en mesure de créer autant de machines virtuelles qu’ils le souhaitent via l’interface vSphere.

Le  » Software Defined Datacenter  » (SDDC) combine les avantages de l’hébergement sur site à ceux du Cloud Computing. Chaque pack SDDC est composé de deux hosts équipés de processeurs Intel, et deux datastores pour entreposer les disques de stockage.

Les tarifs vont de 567 euros par mois pour le pack SDDC 16, à 1297 euros par mois pour le pack SDDC 64 offrant davantage de coeurs et de processeurs. Pour les applications les plus exigeantes, il est aussi possible d’opter pour l’offre de stockage défini logiciel haute performance SDDC vSAN basée sur une architecture full flash NVMe.

De nombreux services sont inclus avec le Private Cloud OVH : vRack, Anti-DDoS, vScope, OVH Academy, ou encore NSX. Les utilisateurs peuvent aussi choisir parmi différents services optionnels comme les Images & Licences, le Veeam Backup, les adresses IP, ou OVHCloud Connect.

OVHcloud à la conquête du monde

En octobre 2019, pour célébrer son 20ème anniversaire, OVH a annoncé son changement de nom. Désormais, la firme s’appelle OVHcloud.

Le principal objectif de ce changement est de refléter le fait que le Cloud est désormais une priorité pour la firme française. Ce n’est pas surprenant, puisque le Cloud représente désormais 70% de ses revenus.

Par ailleurs, ce nouveau branding vise à faciliter sa percée sur le marché monde. Après avoir conquis la France et l’Europe, OVHcloud compte en effet s’étendre à l’internationale.

Selon le CEO, Michel Paulin, les atouts de la firme dans cette quête sont la simplicité et la transparence de ses solutions. Elle se distingue aussi par la simplicité offerte aux clients pour extraire leurs données du nuage et mettre en place des stratégies multi-cloud grâce à la réversibilité.

OVHCloud et le Cloud de confiance européen

Récemment interviewé par L’Usine Nouvelle, le fondateur d’OVH, Octave Klaba, a expliqué sa volonté de développer un écosystème européen du numérique capable de rivaliser avec les géants du GAFAM.

A ses yeux, les entreprises européennes qui se tournent vers Google ou Amazon n’ont pas conscience des risques liés à la loi américaine du Cloud Act qui oblige les fournisseurs à délivrer les données sur demande du gouvernement.

C’est la raison pour laquelle OVHcloud souhaite incarner une alternative respectueuse des valeurs de confiance, de transparence, de réversibilité et de respect des données personnelles chères aux européens.

Aux côtés de Dassault Systèmes, OVH a d’ailleurs été chargé par le ministre français de l’économie Bruno Le Maire de définir un « Cloud de confiance ». Sa mission est de définir un cahier des charges et de développer des offres adaptées aux données critiques, aux données sensibles et aux données non sensibles. Les recommandations devraient être remises au gouvernement avant la fin de l’année 2019.

La responsabilité au cœur de ses valeurs

Pour aller encore plus loin dans la transparence et la confiance, OVH a rejoint au début de l’année 2020 l’association Point de Contact. Le leader européen du Cloud entend ainsi renforcer son engagement dans la lutte contre les continus illégaux et préjudiciables. L’entreprise pourra alors bénéficier des experts de l’association pour une meilleure qualification des contenus signalés.

Cette adhésion à l’association Point de Contact devrait permettre à OVHcloud de réagir plus rapidement. Afin de protéger toutes les parties prenantes, les signalements seront traités plus rapidement. En outre, les clients seront mieux intégrés dans la lutte contre les contenus prohibés.

OVH acquiert OpenIO pour renforcer son service de stockage objet

En juillet 2020, OVHcloud a annoncé l’acquisition d’OpenIO pour un montant tenu secret. Cette entreprise est spécialisée dans le stockage objet rapide. Son logiciel de stockage objet présente l’avantage d’être hautement scalable, open source et  » hardware agnostic « .

Depuis sa fondation en 2015, OpenIO a levé près de 5 millions de dollars de fonds. Elle rassemble aujourd’hui plus de 30 employés et compte plus de 40 clients.

Suite à cette acquisition, le CEO d’OpenIO, Laurent Denel, précise que toutes les technologies utilisées pour la solution Object Storage resteront open-source. Il s’agit selon lui d’une  » valeur essentielle, commune à OpenIO et OVHcloud « . Par le passé, les deux entreprises ont contribué au développement du projet Switch apportant le stockage objet à Openstack.

Grâce à la technologie d’OpenIO, OVHcloud pourra répondre à la forte demande des entreprises en matière de performances pour le stockage de données. Cette acquisition va permettre de développer un service hautement scalable de stockage objet à un prix attractif.

OVH participe au projet de Cloud européen Gaia-X

Avec le projet Gaia-X, initié par l’Allemagne et la France, l’Europe compte s’émanciper des géants américains et chinois et reprendre sa souveraineté numérique en développant son propre écosystème Cloud.

L’objectif de ce groupement, dont le lancement officiel a eu lieu le 4 juin 2020, est notamment la construction d’une  » infrastructure sécurisée de données en réseau « . Le projet réunit des fournisseurs de Cloud, des institutions et des utilisateurs.

Ce  » métacloud  » européen prendra d’abord la forme d’un référentiel de choix en termes de localisations de données, de certifications et de type de services. Puis, il se matérialisera par un catalogue de solutions validées et sécurisées en constante évolution.

Parmi les 24 membres fondateurs de cette association basée en Belgique, on compte OVHcloud aux côtés d’autres Français tels que Atos, Docaposte, EDF, Safran Orange, Outscale et Scaleway. Ils côtoient les géants allemands tels que Deutsche Telekom, SAP, Siemens, BMW et Bosch.

Cet article OVH : tout savoir sur le géant français du Cloud Computing a été publié sur LeBigData.fr.

]]>