LeBigData.fr https://www.lebigdata.fr Le magazine du Big Data et du Cloud Computing Tue, 20 Apr 2021 08:12:00 +0000 fr-FR hourly 1 186642072 Google et Siemens vont créer des outils d’intelligence artificielle industriels https://www.lebigdata.fr/google-siemens-intelligence-artificielle-industriel Tue, 20 Apr 2021 07:43:24 +0000 https://www.lebigdata.fr/?p=24507 Siemens fournit à Google un allié de taille dans le secteur de la fabrication. Il s’agit d’un des six principaux …

Cet article Google et Siemens vont créer des outils d’intelligence artificielle industriels a été publié sur LeBigData.fr.

]]>
Siemens fournit à Google un allié de taille dans le secteur de la fabrication. Il s’agit d’un des six principaux domaines convoités par le géant américain.

Focus sur l’association Google et Siemens

Lundi dernier, Google a annoncé son partenariat avec Siemens. Cette coopération avec le groupe international allemand a pour objectif de faire progresser le déploiement de l’IA dans le milieu industriel. En d’autres termes, l’entreprise digitale incorpore l’aptitude de Google Cloud à analyser les données ainsi que l’IA. Cela s’effectue dans le cadre du Digital Industries Factory Automation. Cette assimilation permet à Google de bénéficier d’un partenaire fondamental, soit l’un des six secteurs verticaux figurant dans la ligne de mire de la société pour son service cloud.

Cette inclusion permettrait à Siemens de gérer plus efficacement les données qu’il a en sa possession. Désormais, il sera plus facile de concevoir des modèles d’IA. Même chose pour le développement des algorithmes en réseau périphérique ou l’apprentissage automatique qui lui, repose sur le cloud.

La prise de parole des entreprises anticipée

Selon un représentant de Google à ZDNet, la prise de parole des entreprises est à prévoir dans les mois à venir. Ces propos concernent les outils Google Cloud qui vont être associés à Siemens et qui feront aussi office d’alternative commune. Ainsi, cette dernière portera sur des cas d’utilisation de la Factory Automation à savoir l’efficience énergétique et le contrôle qualité. En ce qui concerne cette gestion de la qualité, il est du devoir des sociétés de mener des inspections visuelles au sein de chaque ligne de fabrication. Celles-ci pourront alors prévoir les besoins d’entretien du matériel sur une même ligne d’assemblage.

Quel est l’intérêt pour les industriels d’opter pour l’IA ?

Certes, il existe aujourd’hui des solutions au management et à l’utilisation des données d’usine. Toutefois, celles-ci sont, d’après Google, très gourmandes en ressources. Elles suscitent, par ailleurs, des mises à jour manuelles. C’est pour parer à cela que bon nombre d’industriels se tournent vers l’IA.

Une investigation du KPMG a d’ailleurs démontré que pas moins de 49 % d’entre eux ont avoué posséder un déploiement d’IA entièrement fonctionnel. Pour 44 % des individus interrogés, ils ont affirmé avoir des déploiements d’IA modérément fonctionnels. Enfin, pour les 7 % restant, leur capacité demeure restreinte. Le duo Google Siemens est pourtant unanime en ce qui concerne le déploiement de l’IA dans les industries. Celui-ci n’est effectivement pas adaptable à l’échelle organisationnelle.

Selon le vice-président du contrôle de l’automatisation des usines de Siemens Digital Industries, Axel Lorenz : « Le potentiel de l’intelligence artificielle pour transformer radicalement l’usine est loin d’être épuisé ». Etant donné que « aujourd’hui, de nombreux fabricants sont encore bloqués dans des projets pilotes », celui-ci est convaincu que son entreprise et lui pourront changer la donne. Il suffirait effectivement d’apparier la technologie AI/ML de Google Cloud avec des solutions Industrial Edge de Siemens pour qu’il y ait du changement au niveau de l’industrie manufacturière. Soulignons que celle-ci a été identifiée en 2019 comme étant une clé de croissance pour Google Chrome au même titre que la finance, les soins de santé, la communication et le commerce de détail.

Cet article Google et Siemens vont créer des outils d’intelligence artificielle industriels a été publié sur LeBigData.fr.

]]>
24507
Le FBI lance une opération massive pour supprimer les malwares aux États-Unis https://www.lebigdata.fr/suppression-massive-malware-fbi Mon, 19 Apr 2021 20:06:10 +0000 https://www.lebigdata.fr/?p=24516 Le ministère de la Justice a annoncé le lancement d’une opération visant à éliminer les portes dérobées vers des centaines …

Cet article Le FBI lance une opération massive pour supprimer les malwares aux États-Unis a été publié sur LeBigData.fr.

]]>
Le ministère de la Justice a annoncé le lancement d’une opération visant à éliminer les portes dérobées vers des centaines de serveurs basés aux États-Unis, exposés par une vulnérabilité Microsoft Exchange identifiée par la société plus tôt cette année.

Les services juridiques motivés dans la lutte contre la cybercriminalité

Cette vaste opération de nettoyage autorisée par le tribunal démontre l’engagement du Ministère à interrompre les activités de piratage en utilisant tous les outils juridiques et en allant au-delà des poursuites. Certes, il reste encore du travail à faire, mais le Département est déterminé à faire le maximum nécessaire dans ces efforts.

L’action du DOJ (U.S. Department of Justice) est également une étape majeure les démarches de plusieurs semaines menées par les services de renseignements et les responsables et de Microsoft pour endiguer les dommages causés par une faille de sécurité majeure. Cette dernière permettrait aux pirates informatiques d’infiltrer les serveurs d’au moins 30 000 organisations américaines.

La pression exercée sur le secteur privé pour corriger la vulnérabilité a réduit le nombre de serveurs exposés, mais les pirates avaient déjà installé du code malveillant sur des milliers de serveurs pour créer une voie distincte dans leurs opérations. Après que Microsoft a annoncé le correctif en février, les pirates se sont précipités pour récupérer ce code malveillant. Des centaines de webshell sont néanmoins restés sur certains ordinateurs basés aux États-Unis exécutant le logiciel Microsoft Exchange à la fin du mois de mars.

HAFNIUM désigné comme auteur de l’intrusion 

Les shells supprimés par les forces de l’ordre avaient chacun un chemin d’accès et un nom de fichier uniques, ce qui a compliqué la détection et la suppression  pour les propriétaires de serveurs. Dans son dossier, le tribunal mentionne que Microsoft a identifié les instigateurs de l’intrusion comme  étant HAFNIUM, un groupe parrainé par l’État opérant hors de la Chine. Néanmoins, le gouvernement américain n’a pas officiellement attribué l’attaque à un groupe spécifique.

Les cyber-experts étaient divisés sur l’importance et l’impact de l’opération menée par le Ministère de la Justice. Certains estiment que cela ne fait que ralentir les attaquants. D’autres applaudissent les efforts mis en œuvre par le gouvernement. Ils soulignent que si cette opération a supprimé tous les webshell des serveurs backdoor corrigés, ils ont peut-être sauvé ces organisations d’attaques ultérieures potentiellement dévastatrices.

Une opération qui soulève les problèmes de confidentialités

Se diriger directement vers un mandat soulève des problèmes de confidentialité dans cette opération, notent certains experts. Selon le dossier du tribunal, la procédure de suppression du code malveillant n’a pas eu d’incidence sur les autres fichiers ou services des ordinateurs, une situation affirmée par un expert indépendant. 

Certains professionnels soutiennent que ce mandat est un outil extrêmement puissant et potentiellement dangereux. Celui-ci a permis au gouvernement d’accéder aux ordinateurs d’une tierce personne pour supprimer des fichiers, sans préavis. C’est bien disent-ils que le DOJ ait décelé cela rapidement, et il est vrai que l’élimination de l’exploit de sécurité du serveur Exchange est bénéfique. Mais il reste profondément troublant de voir un tribunal autoriser les agents du gouvernement à accéder aux ordinateurs des citoyens.

Cet article Le FBI lance une opération massive pour supprimer les malwares aux États-Unis a été publié sur LeBigData.fr.

]]>
24516
DMP ou Dossier Médical Partagé : tout savoir sur le carnet de santé numérique https://www.lebigdata.fr/dossier-medical-partage-dmp https://www.lebigdata.fr/dossier-medical-partage-dmp#respond Mon, 19 Apr 2021 18:30:48 +0000 https://www.lebigdata.fr/?p=9818 Le Dossier Médical Partagé ou DMP est enfin disponible pour tous les Français. Découvrez tout ce que vous devez savoir …

Cet article DMP ou Dossier Médical Partagé : tout savoir sur le carnet de santé numérique a été publié sur LeBigData.fr.

]]>
Le Dossier Médical Partagé ou DMP est enfin disponible pour tous les Français. Découvrez tout ce que vous devez savoir sur ce carnet de santé numérique que le Ministère de la Santé et l’Assurance Maladie espèrent voir devenir aussi populaire que la carte vitale.

Quatorze ans après le lancement du projet, après deux ans de test, le dossier médical partagé (DMP) est enfin déployé. Ce carnet de santé numérique va permettre aux Français de partager leurs données de santé bien plus facilement avec les professionnels. Découvrez tout ce que vous devez savoir à ce sujet.

Dossier Médical Partagé ou DMP : qu’est-ce que c’est ?

Le 13 août 2004 par le biais de la loi n°2004-810 relative à l’Assurance Maladie, le ministère de la Santé lançait le projet de DMP ou dossier médical partagé. Il s’agit d’un dossier médical informatisé regroupant toutes les données médicales d’un individu, géré par l’Assurance Maladie.

Le DMP se compose de huit rubriques. La rubrique principale est une synthèse sous forme de fiche standardisée regroupant les principales informations de santé telles que les antécédents médicaux, allergies, groupe sanguin, ou les traitements en cours.

On y trouvera aussi les résultats d’examens tels que les radio ou les analyses biologiques, les comptes rendus d’hospitalisation, ou encore les coordonnées des proches à prévenir en cas d’urgence. Le dossier comprendra aussi les dernières volontés du patient : dons d’organe, refus de décès à l’hôpital…

Après moult années d’expérimentations à petite échelle, d’hésitations et de révisions, il aura toutefois fallu attendre décembre 2016 pour que les tests du DMP commencent dans 9 départements pilotes via leurs caisses primaires d’assurance maladie : Bas-Rhin, Pyrénées-Atlantiques, Côtes-d’Armor, Doubs, Haute-Garonne, Indre-et-Loire, Puy-de-Dôme, Somme, et Val-de-Marne.

C’est le 6 novembre 2018 que la ministre de la Santé, Agnès Buzyn, a finalement annoncé la disponibilité générale du dossier médical partagé. Tous les Français majeurs bénéficiant d’un régime de sécurité sociale (et donc d’une carte vitale) peuvent désormais demander la création de leur DMP.

Au total, ce projet a coûté plus de 500 millions d’euros depuis 2004. Afin de rentabiliser son investissement massif, L’Assurance Maladie s’est fixé pour objectif de convaincre 40 millions de Français de créer leurs dossiers d’ici 2023. Ainsi, pour commencer, un mail contenant un code d’activation va être envoyé à une première vague de 15 millions d’assurés à partir du 19 novembre 2018.

A quoi ça sert ?

dmp à quoi sert

Le but premier du Dossier Médical partagé est de faciliter le partage des informations médicales des patients avec les professionnels de la santé. La numérisation de toutes les données permettra de gagner du temps.

De plus, les informations centralisée simplifient l’accès aux informations. Les médecins mettent à jour le dossier en temps réel tout au long de la vie du patient. On gagnera donc en précision par rapport au carnet de santé traditionnel.

Le DMP sera particulièrement utile en cas d’urgence, lorsque le patient n’aura pas forcément son carnet de santé sur lui. Il sera par exemple possible de vérifier si le patient est allergique à un médicament, chose dont il n’est pas forcément au courant lui-même.

Ce dossier est particulièrement recommandé pour les personnes atteintes de pathologie chronique ou les femmes enceintes, puisqu’il facilite la coopération entre les professionnels de la santé. En outre, même si ce n’est pas son but premier, le DMP va permettre à la sécurité sociale de réaliser des économies en rationalisant les soins.

En revanche, le Dossier Médical Partagé n’est pas du tout obligatoire. Les remboursements par la sécurité sociale ne seront pas du tout conditionnés par le DMP.

Comment créer son DMP ou Dossier Médical Partagé ?

dmp comment créer

Pour créer votre Dossier Médical Partagé, deux solutions s’offrent à vous. La première est de le créer seul sur internet. Il vous suffit de vous rendre sur le site dmp.fr. Une fois la demande effectuée, vous recevrez rapidement un code d’identification par mail ou par voie postale.

Vous pourrez procéder à l’ouverture de votre DMP. Il faudra auparavant ajouter les numéros de sécurité sociale. Il ne vous restera plus qu’à renseigner votre adresse mail et votre numéro de portable. Alors, vous recevrez un code unique de connexion.

Cependant, pour ouvrir seul son DMP, il est impératif d’être majeur et assuré auprès de l’un de ces régimes : Régime Général, Cavimac, ENIM, MGP, MNH, Solsantis, Harmonie Fonction Publique, CANSSM, LMDE.

Si ce n’est pas votre cas, vous devrez demander l’aide d’un professionnel de la santé tel qu’un pharmacien, une infirmière ou votre médecin traitant. Vous pouvez aussi vous adresser à votre caisse d’Assurance Maladie.

Comment remplir son DMP

Une fois ouvert, les professionnels de la santé complètent le dossier au fil du temps. Ils devront alors demandé l’autorisation. Ces derniers pourront y ajouter des informations liées à vos hospitalisations, à vos analyses, et  à vos consultations.

L’Assurance Maladie se chargera aussi d’y intégrer l’historique des remboursements dont vous avez profité au cours des deux dernières années. Le montant . À terme, les cabinets libéraux et les hôpitaux pourront aussi transférer des informations via des logiciels compatibles.

Vous pourrez aussi vous-même compléter la rubrique  » espace personnel  » de votre dossier. Il sera par exemple possible de donner des informations sur la personne à prévenir en cas d’urgence. L’on pourra également scanner des comptes rendus d’opération. Pour d’amples informations, les patients sont invités à consulter le site DMP Info Service.

Dossier Médical Partagé et cybersécurité

dmp cybersécurité

Compte tenu du caractère sensible des données de santé, il faut déterminer si le Dossier Médical Partagé dispose d’un haut niveau de sécurité. En effet, les fuites de données de santé sont loin d’êtres rares. Et les cybercriminels ne sont pas les seuls à s’y intéresser. Les données de santé sont également convoitées par les géants du web comme Facebook.

A priori, sachez que seuls le patient et les professionnels de la santé autorisés pourront accéder au DMP. Vous pourrez par exemple choisir de partager les informations avec votre médecin traitant, votre kinésithérapeute, votre infirmier, etc.

Toutefois, seul le médecin traitant pourrait accéder à l’ensemble des informations. Il est possible de décider d’interdire l’accès au dossier à certaines rubriques.  Ainsi, l’on peut masquer certains documents à tous les professionnels de la santé à l’exception du médecin traitant.

L’Assurance Maladie souhaite stocker dans des conditions  » de grande sécurité  » depuis sa plateforme Ameli. Toutefois elle ne donne pas davantage de détails pour l’instant. L’organisme conserve les données pendant dix ans avant leur suppression. En outre, le patient peut décider à tout moment de supprimer son DMP.

9 millions de DMP en France

D’ailleurs, l’organisme a présenté le 16 avril 2019 des statistiques intéressantes. Pas moins de 5 millions de Français avaient ouvert un DMP. En 2020, ils sont désormais environ 9 millions.

Ce sont près de 100 300 personnes par semaine qui ouvrent un dossier médical partagé. Il faut dire que ce carnet est maintenant associé à une application  mobile plus simple d’utilisation. Cela convainc plus facilement les patients. Toujours selon l’Assurance Maladie, les agents de la fonction publique ont conseillé 32 % des patients, tandis que les pharmaciens ont aidé 31 % des propriétaires d’un DMP.

Près de 19 % l’ont ouvert eux-même et 18 % d’entre eux sont passés par un médecin traitant.  En revanche, la répartition semble particulièrement inégale et lier au grande ville. L’Ile-de-France compte le plus grand nombre de carnet (739 000) suivi par les Hauts-de-France (587 000). Les régions Grand-Est, Occitanie et Auvergne-Rhône-Alpes sont plus bas dans ce classement. Clairement, les soignants des villes comme Paris, Marseille, Lyon, Bordeaux, Lille, ou encore Montpellier communiquent autour de ce nouveau dossier médical.

Le dossier médical partagé est-il un échec ? Les députés veulent une refonte

En 2020, neuf ans après la création du DMP, l’heure est à l’amer constat. Seuls 9,3 millions de dossiers médicaux partagés ont été ouverts, alors que les autorités en espéraient 40 millions d’ici 2022.

Le carnet de santé 2.0 est négligé à la fois par les patients et par les médecins. Même parmi les 9 millions de dossiers déjà ouvertes, beaucoup sont délaissés.

Selon un rapport publié par le 21 juillet par des députés, le DMP est  » un coffre-fort fourre-tout et illisible où s’accumulent sans ordre des documents de santé « . C’est la raison pour laquelle ils appellent à une refonte totale de cet outil.

Dans ce rapport, le député MoDem du Rhône Cyrille Isaac-Sibille formule 37 recommandations visant à supprimer les barrières à l’adoption de cette plateforme. Il estime que le DMP  » était une vraie bonne idée, mais l’erreur est qu’il a été conçu par des informaticiens, et on a oublié les citoyens, les patients et les personnels de santé ».

Le rapporteur salue le nouveau départ pris par cet outil en 2016, mais estime qu’il n’est toujours pas suffisamment utilisé par les patients et les médecins. Ainsi, il qualifie le DMP de «  coquille vide «  à l’heure actuelle.

Selon Cyrille Isaac-Sibille, il serait nécessaire que le dossier médical partagé soit «  alimenté par un flux construit autour de la donnée structurée de santé, ordonné, lisible et donc utile « .

L’Assurance Maladie revoit ses objectifs à la baisse

En septembre 2020, l’Assurance Maladie à tout bonnement décidé de revoir ses objectifs à la baisse de près d’un tiers. Même si l’objectif des 10 millions d’utilisateurs pour 2020 a été atteint à 85%, avec 8,5 millions de dossiers, ce n’est pas suffisant.

La CNAM ajoute que le COVID a encore ralenti le projet, notamment à cause de la fermeture des caisses de sécurité sociale et des pharmacies pendant le confinement. Ces établissements sont les principales sources de création de DMP.

Désormais, d’ici la fin de l’année, l’Assurance Maladie vise 14 millions de DMP au lieu des 20 millions initialement prévus. Cette décision fait suite à un   » point d’avancement  » présenté le 27 mai 2020 par la «commission des systèmes d’information et de la transition numérique».

Néanmoins, le retard pourrait être rattrapé grâce à la mesure de  » création automatique  » de DMP, inscrite dans la loi Buzyn de juillet 2019 et prévue à partir de juillet 2021. Cependant, le Parlement pourrait la repousser à juillet 2021.

L’Assurance maladie souhaite à présent se concentrer sur  » le développement et l’alimentation du DMP et de son usage « . L’objectif affiché est désormais d’atteindre 30% de dossiers  » alimentés  » par les établissements tels que les hôpitaux et les Ehpad et par les soignants libéraux (médecins, infirmiers…). Auparavant, en 2019, cet objectif était fixé à 14%.

Vaccin COVID-19 : le DMP en guise de  » passeport vert  » ?

Début 2021, la campagne de vaccination contre le COVID-19 a commencé en France. Pour l’heure, aucun certificat de vaccination n’est exigé pour voyager sur le territoire ou à l’étranger. Le fait d’être vacciné n’octroie aucun droit particulier.

Cependant, dans un futur proche, il est possible qu’un certificat soit délivré aux personnes ayant choisi de se faire vacciner. Le premier ministre grec, Kyriakos Mitsotakis, a d’ailleurs demandé à l’UE d’adopter un  » certificat standardisé «  dans le but de relancer l’industrie du tourisme.

Déjà en Israël, le parlement a voté pour la mise en place d’un  » passeport sanitaire « . Ce document est valable trois jours après un test PCR négatif, et six mois après une vaccination. Un citoyen israélien muni de ce passeport peut voyager en avion librement sans avoir à passer de test de dépistage au préalable. Il pourrait être bientôt requis pour manger au restaurant ou participer à des événements culturels.

Un tel document pourrait finir par apparaître en France, et les députés UDI ont déjà émis cette idée. Il deviendrait alors obligatoire de se faire vacciner et d’obtenir le  » passeport vert  » pour voyager ou pour sortir.

Le DMP (dossier médical partagé) pourrait faire office de passeport sanitaire. En effet, l’ensemble de la procédure de vaccination (consultation prévaccinale, consentement, vaccination, suivi) est consignée dans le DMP pour les personnes en ayant créé un…

En guise d’alternative, vous pouvez demander un document indiquant la date de votre injection au médecin ou au centre de vaccination où vous l’avez reçue. Vous pouvez aussi faire compléter votre carnet de vaccination.

Dossier Médical Partagé : un départ difficile 

Depuis sa création en 2004, le Dossier Médical Partagé a connu de nombreux rebondissements. D’abord baptisé Dossier Médical Personnel, le projet est pris en charge par l’Agence du Numérique en Santé (anciennement Asip ou Agence des systèmes d’information partagés de santé). Opérationnel à partir de 2011, il n’a enregistré que 500 000 utilisateurs environ sur les 20 millions de personnes ayant ouvert un compte auprès de l’Assurance maladie (service Ameli). Avec l’échec de l’essai, le projet a vite été abandonné.

Au-delà du nombre insuffisant d’utilisateurs, cette première version a rencontré de nombreuses autres complications. L’échange de données de santé par exemple, qui s’est révélé complexe,  a ralenti la mise en œuvre de cette première phase sans compter les difficultés techniques. En 2016, le DMP qui devient Dossier Médical Partagé bénéficie d’une seconde version, confiée à  la Caisse Nationale d’Assurance Maladie (CNAM). 

Amélioration de l’outil

Pour cette seconde phase de lancement, la CNAM mise sur un déploiement limité pour la mise en place d’un projet pilote dans 9 départements. Le lancement s’est fait en Bas-Rhin, à Bayonne, aux Côtes-d’Armor, dans les Doubs, en Haute-Garonne, en Indre-et-Loire, dans le Puy-de-Dôme, dans la Somme et dans le Val-de-Marne. Ces départements ont été sélectionnés pour constituer un échantillon représentatif du territoire. 

L’idée est de savoir comment le DMP fonctionne exactement sur terrain. La CNAM souhaite savoir s’il répond aux besoins de toutes les parties prenantes, des patients comme des professionnels de la santé ? Les réponses apportées permettront de perfectionner l’outil pour avoir un dossier pertinent et efficace qui permet d’écarter tout risque d’erreurs et les examens inutiles. La CNAM place par ailleurs le patient au cœur du développement de l’outil pour en faciliter l’adoption.

Toujours au stade expérimental

Le bilan est mitigé, l’outil étant toujours au stade de l’expérimentation. Le projet pilote a d’abord été annoncé pour 6 mois. Mais la CNAM a décidé de poursuivre ses observations minutieuses qui tiennent compte de plusieurs facteurs clés comme la démographie, le système de santé local ou encore le rapport du patient au dossier médical. 

Le déploiement de l’outil sur l’ensemble du territoire français était initialement prévu pour 2018, bien que certains chiffres se révèlent encourageants. Aux Côtes-d’Armor par exemple, 10 000 personnes ont décidé de créer leur DMP. Néanmoins, les retours se font rares, tant en termes de chiffres que de perception et d’adoption. L’histoire continue, les dépenses aussi. Développement et déploiement auraient déjà coûté 500 millions d’euros, rien que pour la première phase.

Le DMP intégré à l’Espace Numérique de Santé

La numérisation du secteur de la santé s’accélère en France. Un décret en application de la loi du 24 juillet 2019, dite  » Ma santé 2022 « , prévoit notamment l’ouverture automatique d’un  » Espace Numérique de Santé  » dénommée  » Mon Espace Santé  » pour tous les Français dès le 1er juin 2021.

En cas de réticence, il sera toutefois possible d’opposer un refus dans un délai d’un mois. le responsable ministériel de la délégation du numérique en santé (DNS), Dominique Pon, a été auditionné par la CNIL le 15 avril 2021 en amont de la publication prochaine de ce décret.

Cet  » ENS  » est l’action numéro 16 de la feuille de route pour le numérique en santé. Chaque Français pourra y consulter son Dossier Médical Partagé (DMP), ses données administratives, ses données de santé produite par des applications et des objets connectés, et ses données de remboursement. Cette plateforme permettra aussi des échanges sécurisés avec les professionnels de la santé.

Un DMP sera créé automatiquement par la CNAM à l’ouverture de l’ENS. Il sera possible d’extraire ou de verser des données dans le DMP à partir de l’ENS, et le titulaire sera informé.

Dans le but de généraliser l’ENS à partir du 1er janvier 2022, les pouvoirs publics invitent les acteurs privés à participer au projet. Le service en lui-même sera développé par Atos et Octo Technology.

L’une des principales composantes de l’ENS sera le catalogue d’applications. Il regroupera des applications mobiles et des sites web référencés sur la base d’une procédure définie par les pouvoirs publics.

Suite à un appel à projets lancé par le ministère en février 2021, 30 industriels ont été retenus pour tester ce processus de référencement et co-construire la connexion au catalogue de l’ENS. Les critères de référencement seront précisés par arrêté publié au Journal officiel à l’automne.

Cet arrêté dévoilera aussi la composition de la «  commission de référencement des services et outils numériques « . La commission aura pour rôle d’instruire les demandes de référencement.

Un «  comité de surveillance citoyen  » sera aussi mis en place pour suivre et accompagner les évolutions de l’Espace Numérique de Santé. Les détails seront dévoilés avant l’été 2021.

Sachant que le DMP fera partie de l’ENS, la médecine du travail n’aura pas accès à cet espace. Les services de médecine scolaire, les  » docteurs juniors  » et les  » personnels spécialement habilité des dispositifs d’appui à la coordination des parcours de santé complexes, des dispositifs spécifiques régionaux, et des dispositifs d’appui existants  » devraient toutefois y être autorisés.

Une phase pilote de test de l’ENS sera organisée dans les départements de Loire-Atlantique, Haute-Garonne et Somme à partir du 1er juillet 2021. Cette version expérimentale, accessible à 4 millions de Français, ne regroupera toutefois que le DMP et la messagerie sécurisée de santé.

Cet article DMP ou Dossier Médical Partagé : tout savoir sur le carnet de santé numérique a été publié sur LeBigData.fr.

]]>
https://www.lebigdata.fr/dossier-medical-partage-dmp/feed 0 9818
Metaverse : Nvidia va créer une copie virtuelle du monde grâce à l’IA https://www.lebigdata.fr/metaverse-nvidia Mon, 19 Apr 2021 18:16:31 +0000 https://www.lebigdata.fr/?p=24488 Nvidia souhaite créer un  » metaverse  » : un clone numérique de notre monde. Dans une interview accordée au magazine …

Cet article Metaverse : Nvidia va créer une copie virtuelle du monde grâce à l’IA a été publié sur LeBigData.fr.

]]>
Nvidia souhaite créer un  » metaverse  » : un clone numérique de notre monde. Dans une interview accordée au magazine TIME, le CEO Jensen Huang évoque ce projet pharaonique et prédit comment l’IA va révolutionner toutes les industries…

En 1992, Neal Stephenson publiait le roman  » Snow Crash « . Dans cet ouvrage de science-fiction, une copie virtuelle de notre monde sert d’extension à internet.

Aujourd’hui, dans une interview accordée au magazine TIME, le CEO de NVIDIA, Jensen Huang, annonce sa volonté de créer un  » metaverse « . Ce terme désigne  » un monde virtuel qui sera un jumeau numérique du nôtre « .

En réalité, le projet a déjà commencé. Le constructeur automobile BMW s’est associé à NVIDIA pour créer un jumeau numérique virtuel de son usine située à Regensburg en Allemagne.

Le but est de planifier les opérations dans cette copie virtuelle avant de déployer les changements en temps réel dans l’usine physique. De la même manière, selon Huang, le metaverse sera  » le lieu où nous créerons notre futur  » et transformerons la façon dont les plus larges industries opèrent.

D’après ses prédictions, le monde digital sera plusieurs milliers de fois plus vaste que le monde physique. Chaque ville, chaque usine, chaque bâtiment aura son jumeau numérique simulant parfaitement la version physique.

Les ingénieurs et développeurs pourront ainsi simuler de nouveaux logiciels dans le monde virtuel, pour ensuite les télécharger et les exécuter sur la version physique. Voitures, robots, bâtiments, aéroports…

Les logiciels seront simulés sur les clones numériques, puis téléchargés sur la version physique. Ainsi, les produits seront améliorés de façon continuelle et exponentielle.

En outre, nous serons en mesure d’entrer et de sortir du monde virtuel et du monde physique instanément via des  » trous de ver « . Le monde virtuel sera accessible via la technologie de réalité virtuelle, et les objets du monde virtuel seront transposés dans le monde réel via la réalité augmentée. Nous assisterons donc à la fusion entre le monde virtuel et le monde physique.

L’intelligence artificielle est  » le nouveau Big Bang  » selon Nvidia

Au cours de cette même interview, Jensen Huang décrit l’intelligence artificielle comme «  le Big Bang moderne « . Selon lui, cette technologie va profondément transformer notre monde.

Comme l’explique le chef d’entreprise, «  l’intelligence est la technologie fondamentale des humains « . À présent, l’IA va tout simplement permettre d’automatiser l’intelligence afin d’augmenter la nôtre. L’IA va révolutionner chaque industrie, à la manière dont le smartphone a transformé l’industrie du téléphone mobile.

À ses yeux, la chose  » véritablement cool  » est que l’intelligence artificielle est un logiciel qui s’écrit lui-même, et écrit un logiciel qu’aucun humain ne peut écrire « . Jusqu’à présent, aucun humain n’avait pu créer de logiciel pour automatiser l’agriculture, l’industrie de la santé, la fabrication, la logistique ou le transport. Il s’agit donc d’une véritable révolution. Au fil des dix prochaines années, Huang prédit que nous allons assister à «  l’automatisation de l’automatisation « …

Cet article Metaverse : Nvidia va créer une copie virtuelle du monde grâce à l’IA a été publié sur LeBigData.fr.

]]>
24488
Comment Aflorithmic a cloné la voix d’Einstein grâce à l’IA ? https://www.lebigdata.fr/aflorithmic-voix-einstein Mon, 19 Apr 2021 16:43:24 +0000 https://www.lebigdata.fr/?p=24493 Aflorithmic, entreprise de clonage audio, ramène la voix d’Einstein à la vie. Bien que cette entreprise soit à l’origine du …

Cet article Comment Aflorithmic a cloné la voix d’Einstein grâce à l’IA ? a été publié sur LeBigData.fr.

]]>
Aflorithmic, entreprise de clonage audio, ramène la voix d’Einstein à la vie. Bien que cette entreprise soit à l’origine du deepfake, cet exploit n’a été possible que grâce au partenariat avec UneeQ. En effet, cette société de médias synthétiques est le concepteur du moteur qui, lui, alimente les constituants de cette version d’humain digitalisé. En d’autres mots, c’est l’hébergeur qui prendra en charge le chatbot sur son site internet.

Un aperçu du monde de demain

L’Einstein numérique serait, d’après Aflorithmic, un avant-goût de ce que sera le commerce social conversationnel dans le futur. Effectivement, l’on peut s’attendre à ce que plus tard, ces soi-disant deepfakes ressemblant comme deux gouttes d’eau à des héros ou personnages légendaires nous vendent des pizzas et des burgers. Du moins, c’est ce que prévoient les observateurs de ce secteur.

Un mix entre technologie et capital humain

Toujours selon Aflorithmic, le fait de redonner vie à ces personnages aurait des vertus sur le plan éducatif. Certes, on parle là de vie artificielle. Néanmoins, la voix d’Einstein n’est pas uniquement le fruit de la technologie. Dans le processus de modélisation du chatbot, la startup a collaboré avec un acteur donc une vraie personne. Sans cela, il serait peu probable que le vrai Einstein ait dans son jargon des termes comme « blockchain ». En plus d’un artifice IA, cette invention possède alors un apport humain.

Selon Matt Lehmann, COO d’Aflorithmic : « Il s’agit de la prochaine étape dans la présentation de la technologie permettant de rendre possible le commerce social conversationnel ». Aussi, malgré l’existence de nombreux défauts à aplanir puis des défis technologiques à surmonter, ce serait la meilleure façon de montrer où cela va mener.

Par ailleurs, l’entreprise partage dans un billet de blog les difficultés rencontrées ainsi que les progrès réalisés dans le cadre de la création de la voix d’Einstein. En effet, si le temps de réponse initial entre le retournement de texte d’entrée et l’API apte à rendre une réponse vocale était de 12 secondes, cela a été réduit à 3 secondes. Ce décalage non-négligeable permettra au robot d’être plus réactif.

Aflorithmic se prononce sur leur chatbot

Il est compréhensible que la législation protégeant les données d’une personne constitue un obstacle au développement de ce projet. Cependant, la startup rassure que ces clones numériques n’existent pas dans le but de bafouer l’image des personnages historiques. Cela dit, des droits de licence sont toujours valables. Pour le cas d’Albert Einstein, ces droits sont la propriété de l’Université hébraïque de Jérusalem. Ce dernier étant même un collaborateur dans ce projet.

Lehmann affirme même que la performance de clonage de la voix du scientifique a fait l’objet d’une licence d’artiste. D’après ses propos, Aflorithmic n’a pas cloné la voix d’Einstein en tant que telle. Ils se sont plutôt inspirés des films et enregistrements originaux pour ce faire. L’acteur qui a modélisé sa voix, lui, n’est plus ni moins qu’un grand admirateur du génie d’Einstein.

Cet article Comment Aflorithmic a cloné la voix d’Einstein grâce à l’IA ? a été publié sur LeBigData.fr.

]]>
24493
Nvidia : comment le fabricant de GPU est devenu un géant du Big Data https://www.lebigdata.fr/nvidia-big-data Mon, 19 Apr 2021 14:35:49 +0000 https://www.lebigdata.fr/?p=17537 Autrefois spécialisé dans les cartes graphiques dédiées au gaming, NVIDIA est devenu, en quelques années, un géant du Big Data …

Cet article Nvidia : comment le fabricant de GPU est devenu un géant du Big Data a été publié sur LeBigData.fr.

]]>
Autrefois spécialisé dans les cartes graphiques dédiées au gaming, NVIDIA est devenu, en quelques années, un géant du Big Data et un acteur majeur de l’industrie des Data Centers. Découvrez les coulisses de cette transformation, et les différentes solutions proposées aujourd’hui par la firme américaine…

Lorsqu’une entreprise s’attaque à un nouveau marché, la transition peut se solder par un échec cuisant. Toutefois, elle peut aussi être couronnée de succès.

En décidant de s’attaquer au marché des Data Centers, du Big Data et de l’IA, NVIDIA a réalisé un véritable coup de maître lui permettant de se préparer au monde de demain. À travers de dossier, découvrez comment le fabricant de cartes graphiques est devenu un géant de l’industrie du Big Data…

NVIDIA et le HPC

Tout commence en 2006. C’est à cette époque que l’Université de Stanford découvre que l’utilisation des GPUs (Graphics Processing Units) pour les tâches les plus intensives offre de meilleures performances par watt que les processeurs CPU traditionnels.

En effet, les éléments utilisés pour traiter les pixels peuvent être utilisés pour les calculs scientifiques : c’est ce que l’on appelle alors le  » GPU Compute « . Plusieurs responsables de NVIDIA, dont Bill Dally et John Nicholls, décident de saisir cette opportunité pour se lancer sur le marché du  » High-Performance Compute  » (HPC).

Pour y parvenir, NVIDIA ajoute de nouvelles fonctionnalités dédiées aux workloads HPC dans ses GPU. Elle développe aussi la gamme de produits Tesla (plus tard renommée Ampere), en se basant sur sa gamme de workstations professionnelles Quadro.

Cette percée sur le marché du HPC sera un véritable succès, et équipe aujourd’hui 127 superordinateurs du TOP500 dont les deux superordinateurs les plus rapides du monde appartenant au US Department of Energy : Summit, situé au Oak Ridge National Laboratory, et Sierra, au Lawrence Livermore National Lab.

Par la suite, des chercheurs en intelligence artificielle décidèrent d’utiliser les GPU pour accélérer les algorithmes de Machine Learning de type  » Deep Convolutional Neural Networks  » (réseaux de neurones convolutifs).

En combinant les DCNN et les GPU, l’entraînement de l’intelligence artificielle a fortement gagné en vitesse et en précision. C’est ce qui a mené à l’explosion de la recherche et des applications IA, et propulsé NVIDIA en chef de file.

La firme américaine a rapidement adapté ses GPU à ces nouveaux workloads, en ajoutant des fonctions mathématiques et des éléments de traitement dédiés appelés  » Tensor Cores « . Elle a aussi développé des bibliothèques logicielles sous le nom cuDNN optimisées pour son framework de programmation CUDA et pour les réseaux de neurones.

Nvidia et les Data Centers

En mars 2019, NVIDIA annonce l’acquisition de Melannox, l’entreprise de networking de Data Center, pour la somme de 6,9 milliards de dollars. Une annonce surprenante pour de nombreux experts, mais aussi et surtout une excellente décision stratégique.

Cet achat est le plus important réalisé par NVIDIA depuis sa fondation, aussi bien en termes de prix que de conséquences. En acquérant Mellanox, NVIDIA est officiellement devenue une entreprise de Data Center.

L’entreprise est convaincue que les Data Centers seront de plus en plus indispensables pour traiter les exabytes de données générées par les nouvelles technologies telles que les véhicules autonomes.

Pour répondre à ces besoins en science des données, NVIDIA a développé plusieurs projets de serveurs basés sur le networking en rack de Mellanox. En effet, la technologie de Mellanox permet de rendre un Data Center suffisamment flexible pour faire face à l’évolution des workloads, à l’hyperscaling et à la conteneurisation.

L’une des pièces maîtresses de cette technologie est l’utilisation des accélérateurs plutôt que des CPU pour les tâches de networking. A l’avenir, la firme comte aussi ajouter de l’intelligence artificielle à ses produits de switching pour transférer les données plus efficacement.

Au deuxième trimestre 2020, pour la première fois, les revenus liés aux activités Data Center de Nvidia ont surpassé ceux générés par ses produits  » gaming « . Il s’agit donc d’un véritable tournant pour l’entreprise.

Les GPU Ampere

Au fil du temps, NVIDIA a développé de nombreux produits dédiés au Big Data et aux Data Centers. Tout d’abord, la firme propose des GPU spécialement dédiés aux Data Centers. Cette gamme portait jadis le nom de  » Tesla « , mais a récemment été rebaptisée  » Ampere  » pour éviter la confusion avec la marque automobile éponyme d’Elon Musk.

Le petit dernier de ce catalogue n’est autre que le A100 Tensor Core. Ce GPU délivre des capacités d’accélération inégalables pour les workflows d’analyse de données, de HPC et d’IA. Il permet d’interconnecter des milliers de GPU ou au contraire de partitionner un GPU en sept instances avec la technologie MIG.

Les systèmes DGX

Lors du keynote GTC 2019, le CEO et fondateur de NVIDIA, Jensen Huang, estime que la Data Science est devenue le 4ème pilier de la méthode scientifique. Or, face à la pénurie de Data Scientists et de chercheurs en IA à l’échelle mondiale, il considère essentiel de maximiser la productivité de ces experts.

Pour permettre à davantage de développeurs de profiter de ses ressources de Data Science, NVIDIA conçoit les workstations et serveurs DGX embarquant tous les outils et bibliothèques CUDA-X pour la recherche en Machine Learning. Avec l’aide de plusieurs fabricants comme Dell, HP et Lenovo, elle commercialise de nouvelles plateformes de Data Science.

Avec ses systèmes DGX, NVIDIA propose aux entreprises des solutions pour la configuration et la mise à niveau des infrastructures d’intelligence artificielle et de Deep Learning.

Cette gamme de systèmes est entièrement conçue pour les workflows d’intelligence artificielle. Elle regroupe les stations de travail et serveurs NVIDIA DGX, mais aussi la solution d’infrastructure évolutive DGX POD.

La plateforme de calcul accéléré NVIDIA HGX A100

Avec sa plateforme HGX A100, NVIDIA propose la plateforme de serveur la plus performante du monde pour l’accélération des calculs multi-précision sur les workflows Deep Learning, Machine Learning et HPC.

Cette plateforme combine jusqu’à huit GPU A100 Tensor Core à la technologie NVSwitch dans un accélérateur unifié. De quoi résoudre les calculs les plus complexes et avancés.

NVIDIA EGX pour le calcul en Edge Computing

Alors que les entreprises opèrent de plus en plus à la périphérie des réseaux, NVIDIA répond à une nouvelle demande avec sa plateforme NVIDIA EGX. Celle-ci permet de profiter de la puissance de calcul accéléré par l’IA directement en périphérie (edge) via le Cloud.

Cette plateforme de calcul accélérée par GPU dédiée au déploiement et à la gestion des applications IA est entièrement évolutive. Elle offre par ailleurs une faible latence et une utilisation simplifiée à l’extrême.

Le hub logiciel NGC

Le hub NGC regroupe de nombreux logiciels accélérés par GPU pour le Deep Learning, le Machine Learning et le calcul haute performance. Les workflows professionnels s’en trouvent simplifiés, et les Data Scientists peuvent ainsi se focaliser sur la création de solutions innovantes.

On retrouve des graphiques Helm permettant d’automatiser les déploiements, des conteneurs sur mesure pour déployer plus rapidement les frameworks IA, des modèles pré-entraînés et des scripts d’apprentissage.

NVIDIA accélère Apache Spark 3.0

En mai 2020, NVIDIA a fait le choix de collaborer avec la communauté open-source en apportant son accélération GPU à Apache Spark 3.0 : la nouvelle version du moteur d’analyse Big Data utilisé par plus de 500 000 Data Scientists dans le monde.

Cette accélération GPU concerne l’ensemble du pipeline de Spark 3.0, du processus ETL jusqu’à l’entraînement de l’IA, qui peut désormais être traité sur le même cluster Spark plutôt que sur une infrastructure séparée. En utilisant la version preview de Spark 3.0 sur Databricks, Adobe a multiplié ses performances par 7 et réduit ses coûts de 90%.

NVIDIA bat le record de performances d’analyse Big Data

nvidia benchmark

En juin 2020, NVIDIA a battu le record de vitesse d’analyse Big Data sur le benchmark standard TPCx-BB. Plus précisément, la firme a réalisé des performances 20 fois plus élevées que les précédents records.

Cette prouesse a été réalisée grâce à la suite de bibliothèques logicielles de Data Science open-source RAPIDS, propulsées par 16 systèmes DGX A100. Au total, les systèmes cumulaient 128 GPU A100 et utilisaient la technologie de networking de Mellanox. Le benchmark a été exécuté en seulement 14,5 minutes grâce à cette configuration, tandis que le précédent record était de 4,7 heures sur un système CPU.

NVIDIA, le Deep Learning et l’intelligence artificielle

L’intelligence artificielle et le Deep Learning permettent aux ordinateurs d’apprendre de manière autonome. Ces technologies nécessitent une puissance de calcul colossale pour l’entraînement des modèles et l’inférence.

Plutôt que les CPU, on utilise les GPU équipés de coeurs Tensor pour leur capacité de parallélisme. Chaque coeur peut effectuer une tâche différente en simultané.

Naturellement, NVIDIA est donc devenu un acteur majeur du Deep Learning au même titre que AMD. Leurs GPU sont utilisés par tous les ingénieurs en intelligence artificielle.

NVIDIA propose l’accélération GPU pour le Deep Learning aussi bien sur PC que via le Cloud. Les systèmes DGX pour Data Centers sont les premiers superordinateurs conçus pour l’IA.

Sur le Cloud, l’accélération GPU est proposée sous forme de services par les principaux fournisseurs comme Amazon, Google, IBM et Microsoft. En outre, le hub NGC permet l’accès aux principaux frameworks Deep Learning pour l’entraînement de modèles : TensorFlow, PyTorch, MXNET…

Pour le Deep Learning sur PC, NVIDIA commercialise son GPU TITAN-V qui est actuellement la carte graphique pour PC la plus puissante à ce jour. Elle repose sur l’architecture Volta de dernière génération.

Un autre produit Nvida dédié au Deep Learning est le DRIVE PX2 : un ordinateur de bord pour les voitures autonomes. Ce système permet d’accélérer la production de véhicules sans pilote.

Le NVIDIA Jetson est une carte permettant d’intégrer l’IA et le Deep Learning aux appareils intelligents. Elle offre des capacités de vision par ordinateur (Computer Vision), de hautes performances avec l’architecture Maxwell (1 Teraflops) et une faible consommation d’énergie de moins de 10 watts.

Côté software, NVIDIA propose le stack logiciel CUDA-X AI entièrement dédié au Deep Learning et destiné aussi bien aux chercheurs qu’aux développeurs. Cet outil permet de développer des applications haute performance accélérées par GPU pour les assistants vocaux, les systèmes de recommandation ou la vision par ordinateur. Les différentes bibliothèques délivrent des performances inégalées pour l’entraînement et l’inférence.

Nvidia GTC 2021 : tour d’horizon des annonces Data Centers

L’édition 2021 de la GPU Technology Conference annuelle de Nvidia était particulièrement riche, avec plusieurs dizaines d’annonces. Plusieurs nouveautés majeures ont notamment été annoncées pour les Data Centers.

Lors de la précédente édition, Nvidia avait dévoilé son nouveau GPU phare : le Ampere A100. Cette puce surpuissante est idéale pour les superordinateurs, le HPC ou l’IA à grande échelle… mais peut être à la fois trop performante et trop chère pour des projets de moindre envergure.

Afin de rectifier le tir, l’entreprise vient de dévoiler deux nouvelles puces plus modestes basées sur le A100. Le Ampere A30 est destiné aux serveurs IA et analytiques, et le A10 est conçu pour le mixed compute et les workloads graphiques.

Une autre nouveauté annoncée par Nvidia est la possibilité de  » louer  » le superordinateur Nvidia DGX Station A100 pour une courte période de temps. Il s’agit du programme  » Nvidia Financial Solutions « , destiné aux individus et entreprises dont les besoins ponctuels ne justifient pas l’achat d’une machine à plusieurs millions de dollars.

En guise d’alternative, via le Cloud, il sera possible d’accéder à un DGX SuperPod constitué de plusieurs ordinateurs DGX Station. C’est donc un superordinateur  » cloud-native « , proposé sous la forme d’un serveur dédié bare-metal.

Loin de se reposer sur ses lauriers, Nvidia a aussi dévoilé son ambitieuse feuille de route pour les prochaines puces. D’ici 2025, la firme compte lancer six générations de hardware dans les gammes Ampere, Grace et Bluefield. La prochaine génération de GPU, prévue pour 2022, porte le nom de code Hopper.

Le CPU Grace est quant à lui prévu pour 2023, tandis que son successeur Grace Next sera lancé en 2025. Concernant les puces de Data Processing de gamme Bluefield, les prochaines itérations (3 et 4) sont attendues pour 2022 et 2024 avec des performances multipliées par 10 et 100 par rapport à l ‘actuelle mouture.

Cet article Nvidia : comment le fabricant de GPU est devenu un géant du Big Data a été publié sur LeBigData.fr.

]]>
17537
Data Center : avec sa puce Grace Nvidia fait trembler Intel https://www.lebigdata.fr/nvidia-menace-intel-grace Mon, 19 Apr 2021 12:00:20 +0000 https://www.lebigdata.fr/?p=24442 L’existence du premier CPU pour datacenter Grace de Nvidia représente un réel danger pour le géant Intel. Grace de Nvidia, …

Cet article Data Center : avec sa puce Grace Nvidia fait trembler Intel a été publié sur LeBigData.fr.

]]>
L’existence du premier CPU pour datacenter Grace de Nvidia représente un réel danger pour le géant Intel.

Grace de Nvidia, une autre menace pour Intel

Alors que la puce M1 d’Apple était une menace pour Intel sur les machines grand public, l’histoire est en train de se répéter pour les data centers. Toutefois, cette fois-ci, c’est Nvidia qui en est à l’origine. L’entreprise américaine est effectivement passée à l’offensive avec son CPU qui est basé sur une architecture ARM. Baptisé Grace, ce nouveau CPU pour centre de données fait honneur à l’informaticienne Grace Hopper.

Rappelons que celle-ci est réputée pour avoir conçu le premier compilateur de 1951 et du langage COBOL de 1959. La puce Grace serait alors destinée à effectuer une énorme charge de travail dont le traitement du langage naturel ou le supercalculateur d’IA. Incorporée à la technologie GPU Nvidia, celle-ci sera alimentée par des cœurs ARM Neoverse.

Un processeur issu de la technologie de pointe

Selon les calculs de Nvidia, si l’on appareillait Grace à un système, celui-ci serait dix fois plus rapide dans sa mission de traitement NLP. Seulement, à l’opposé d’Apple, cela pourrait représenter les limites du matériel x86 actuel. Il n’y aurait alors aucun choix à part le fait de prendre les choses en main.

Jensen Huang, fondateur et CEO de Nvidia communique que “l’IA de pointe et la science des données poussent l’architecture informatique actuelle au-delà de ses limites – en traitant des quantités impensables de données ». Il ajoute :  » Couplé au GPU et au DPU, Grace nous donne la troisième technologie fondatrice de l’informatique, et la capacité de réarchitecturer le centre de données pour faire progresser l’IA « . Cela fait du NVIDIA actuel, une société à trois puces.

Le lancement de Grace très attendu en 2023

Il n’a pas fallu longtemps à Nvidia pour trouver des acheteurs pour son nouveau CPU. A ce titre, le Laboratoire national de Los Alamos du DOE ainsi que le Centre national suisse de supercalcul (CSCS) figurent parmi les intéressés. Pour le CSCS, le processeur Grace sera mis au cœur-même du supercalculateur Alps initié par la multinationale Hewlett-Packard. Le lancement de systèmes Grace par les deux investisseurs, lui, est prévu pour 2023.

Ces systèmes seront renforcés par la technologie Nvidia NVLink. Cette dernière permet d’augmenter les vitesses entre GPU et CPU de 900 Go/s. D’après les propos de NVIDIA, ce chiffre serait 30 fois plus important que la vitesse proposée par les principaux serveurs actuels. Aussi, les appareils Grace seront 10 fois moins énergivores que ces derniers. Ils afficheront deux fois plus de bande passante que la RAM DDR4. Tout cela est possible grâce à la mémoire LPDDR5x.

Les menaces contre Intel ne s’arrêtent pas là. En effet, Nvidia vient d’annoncer son partenariat avec Amazon Web Services. Cette initiative a pour objectif de combiner ses GPU au processeur Graviton2 personnalisé par AWS. Une telle collaboration témoigne de la flexibilité de la société. Comme résultat, il sera désormais possible de faire tourner des jeux Android en mode natif. Ces jeux pourront, par ailleurs, être diffusés sur des mobiles avec un encodage accéléré.

Cet article Data Center : avec sa puce Grace Nvidia fait trembler Intel a été publié sur LeBigData.fr.

]]>
24442
DeepL : tout ce qu’il y a à savoir https://www.lebigdata.fr/deepl-tout-savoir Mon, 19 Apr 2021 10:00:06 +0000 https://www.lebigdata.fr/?p=24421 Le traducteur automatique DeepL est devenu un des outils en ligne les plus populaires pour une traduction de qualité. Grâce …

Cet article DeepL : tout ce qu’il y a à savoir a été publié sur LeBigData.fr.

]]>
Le traducteur automatique DeepL est devenu un des outils en ligne les plus populaires pour une traduction de qualité. Grâce à une technologie d’intelligence artificielle (IA) très performante, il a réussi en un temps record à se hisser en haut de la liste.

Il est impressionnant de voir ce que cet outil de traduction est capable de faire, comparé aux géants de la traduction comme Google Traduction. En effet, il est simplement meilleur par le fait que les textes traduits sont plus naturels.

Quelles sont les origines de DeepL ?

DeepL GmbH est une société allemande située à Cologne qui œuvre dans le développement de produits d’Intelligence Artificielle (IA). Leur domaine de spécialisation est l’industrie de la langue. Au départ, la société a mis en ligne un dictionnaire bilingue connu sous le nom de Linguee. Il s’agit d’un site qui propose, en plus des définitions, des extraits de textes pour contextualiser les résultats de recherche. Ces extraits sont des textes qui ont été traduits auparavant et rassemblés par des robots d’exploration depuis des sites fiables comme celui de l’Union Européenne. Ensuite, un algorithme d’apprentissage calcule et trie les informations pour sélectionner les résultats les plus pertinents à afficher.

Ce dictionnaire en ligne est donc devenu une source de documentation très utilisée par les internautes dans leurs travaux de traduction.

La naissance de DeepL

En août 2017, l’équipe met en place une nouvelle plateforme de traduction en ligne, DeepL. Grâce à l’immense base de données Linguee qui s’est enrichie au fil des années, elle est rapidement devenu l’une des meilleures. DeepL, qui veut en réalité dire “Deep learning”, utilise la technique de l’apprentissage profond. En d’autres termes, il apprend toutes les données du dictionnaire multilingue et c’est de là que vient sa force.

Comment se passe la traduction ?

Traducteur automatique DeepL

Avant de parler d’apprentissage en profondeur, abordons la question de l’Intelligence Artificielle qui en est la base. Il s’agit d’un ensemble de techniques mises en œuvre par l’humain, afin de permettre à une machine d’imiter son intelligence réelle. Pour imiter le cerveau humain, cette technologie utilise un système fondé sur des réseaux neuronaux artificiels.

Les neurones virtuels sont des algorithmes qui calculent et traitent les signaux visuels. Autrement dit, ils sont capables de reconnaître et d’apprendre des signaux à partir d’exemples existants.

Le système de traduction de DeepL

C’est donc à l’aide des réseaux de neurones convolutifs que DeepL effectue les traductions sur le site. En termes d’apprentissage profond, il est important de préciser que plus la base de données est riche en exemples, mieux la machine apprend. De la même manière, DeepL utilise les réseaux pour apprendre à partir des extraits de textes traduits dans Linguee. C’est ainsi qu’il arrive à proposer des traductions plus naturelles.

En effet, les utilisateurs sont étonnés par la qualité des textes qu’ils demandent à DeepL de traduire. Et avec plus d’une vingtaine de langues prises en charge, il propose une large possibilité de combinaison de langues.

Traduire gratuitement

Les internautes sont vite devenus fans de ce service de traduction automatique. Obtenir un résultat intuitif, presque aussi nuancé que le travail d’un traducteur humain, c’est assez inattendu. Mais en plus de la qualité du travail effectué, DeepL propose également à ses utilisateurs de traduire des documents Word ou PowerPoint, tout en gardant la mise en forme. Par ailleurs, les développeurs ont mis en place une API (Application programming Interface) qui donne la possibilité de l’utiliser avec d’autres applications.

Toutefois, le traducteur gratuit DeepL enregistre les textes traduits pour approfondir son apprentissage. Or cela exposerait l’identité des traducteurs professionnels. Aussi, dans le but de préserver la confidentialité des utilisateurs, la version DeepL Pro n’enregistre aucune information.

DeepL ou Google Traduction ?

deepl logo

Google Traduction est sûrement l’outil de traduction en ligne le plus connu. Mais compte tenu du temps qui lui a pris pour gravir les échelons, DeepL a de quoi faire trembler le géant du net.

Ces plateformes utilisent toutes les deux la technologie des réseaux neuronaux pour traduire automatiquement des textes. Pourtant, l’écart dans le niveau de perfection entre les résultats est incontestable. C’est simple, grâce aux milliards de données puisées dans Linguee, l’algorithme d’apprentissage de DeepL est plus apte à apprendre. Et ce n’est pas uniquement une question de quantité, mais surtout de la qualité de ces sources d’informations.

La société dispose du 23e supercalculateur le plus puissant au monde. Autrement dit, en l’espace d’une seconde, DeepL arrive à traduire un million de mots. Il existe une évaluation qui consiste à comparer les travaux de traductions automatiques par des traductions faites par les humains. Le test BLEU, comme on le désigne, a prouvé que Google Traduction est 3 fois moins efficace.

Aussi, avec l’apprentissage profond, la puissance de la vitesse de traduction et la qualité des textes traduits font clairement de DeepL le meilleur traducteur en ligne.

Cet article DeepL : tout ce qu’il y a à savoir a été publié sur LeBigData.fr.

]]>
24421
Fuite de données Facebook : la CNIL Irlandaise ouvre une enquête https://www.lebigdata.fr/fuite-donnees-facebook-irland Mon, 19 Apr 2021 08:47:18 +0000 https://www.lebigdata.fr/?p=24436 Suite à une fuite de données potentielle, le régulateur irlandais de la protection de la vie privée entame une enquête …

Cet article Fuite de données Facebook : la CNIL Irlandaise ouvre une enquête a été publié sur LeBigData.fr.

]]>
Suite à une fuite de données potentielle, le régulateur irlandais de la protection de la vie privée entame une enquête à l’encontre de Facebook.

Facebook, au centre d’une enquête sur une fuite de données

Selon la commission irlandaise de la protection de données, le géant des médias sociaux aurait été suspecté d’avoir transgressé la loi. Cette annonce a été faite suite à un événement malencontreux. En effet, des informations sur un demi-milliard d’utilisateurs Facebook ont été répandues sur le web. Dans le cadre de cette investigation, l’entreprise semble afficher une volonté à coopérer avec l’organisation irlandaise.

L’entité irlandaise de surveillance et de protection des données (DPC) s’est prononcée mercredi dernier. Cette organisation aurait débuté une enquête concernant Facebook et la possibilité d’une violation de la législation européenne par celui-ci. Des règles qui concernent notamment l’atteinte et la protection de la vie privée.

Toujours d’après le DPC, cette recherche serait basée sur des rapports. Ces derniers confirmeraient l’exposition des données de 533 millions d’utilisateurs Facebook sur un forum de pirates sur Internet. Cette fuite pourrait alors représenter une infraction au règlement général sur la protection des données mis en place par l’Union européenne.

Facebook réagit face aux propos de la DPC

Suite à une conversation avec des ambassadeurs de Facebook Ireland, la Commission de la protection des données a proclamé que le réseau social n’est pas écarté de toute suspicion, quant à la transgression de nombreuses lois et dispositions. Facebook, lui, a réagi positivement. Il affirme même qu’il « coopère pleinement » avec la DPC.

Dans la foulée, celui-ci ajoute que les fuites de données Facebook résultent de certaines fonctionnalités. Grâce à celles-ci, les internautes peuvent effectivement profiter d’une connexion rapide et facilitée. Il est à noter que ces options sont également présentes dans certaines applications et pas uniquement sur la plateforme.

Dans le courriel envoyé à la commission irlandaise, le réseau social se veut rassurant. Des protections sont déjà mises en place pour pallier à ce problème. Ces fuites de données seraient alors le résultat d’une ancienne défaillance Facebook qui, fort heureusement, a été rétablie en 2019. Profitant de cette vulnérabilité, des pirates se sont infiltrés dans le système. C’est grâce à l’outil utilisé par Facebook pour importer ses contacts que ces malfaiteurs ont pu soutirer les données dont il est question.

La responsabilité irlandaise pointée du doigt

Malgré l’affaire de la « commission vie privée » de Bruxelles, l’on peut dire que le CPD est le premier organisme à lancer une enquête officielle sur le devenir des données Facebook. Cela tombe bien étant donné que le siège de la société se trouve justement à Dublin. L’Irlande est donc tenue responsable de l’application des textes par ce colosse.

A ce jour, on ne sait pas encore combien de temps durera l’investigation. Toutefois, en vertu du RGPD, les entreprises peuvent être passibles d’une sanction. Il s’agit d’une amende, soit de 20 millions d’euros soit de 4 % des revenus annuels dans la mesure où ce deuxième montant excède le premier.

Cet article Fuite de données Facebook : la CNIL Irlandaise ouvre une enquête a été publié sur LeBigData.fr.

]]>
24436
L’Union européenne veut bannir l’IA de surveillance de masse https://www.lebigdata.fr/ue-bannir-ia-surveillance-masse Fri, 16 Apr 2021 20:35:55 +0000 https://www.lebigdata.fr/?p=24459 L’Union européenne envisage d’interdire l’utilisation de l’intelligence artificielle à plusieurs fins, notamment pour la surveillance de masse et les scores …

Cet article L’Union européenne veut bannir l’IA de surveillance de masse a été publié sur LeBigData.fr.

]]>
L’Union européenne envisage d’interdire l’utilisation de l’intelligence artificielle à plusieurs fins, notamment pour la surveillance de masse et les scores de crédit social. 

Tester et valider les systèmes d’IA à haut risque

Si le projet de proposition passe, l’UE devrait adopter une position ferme sur certaines applications de l’IA, la distinguant des États-Unis et de la Chine. Certains cas d’utilisation seraient contrôlés d’une manière similaire à la réglementation de l’UE sur la confidentialité numérique en vertu de la législation RGPD.

Les États membres, par exemple, seraient tenus de mettre en place des comités d’évaluation pour tester et valider les systèmes d’IA à haut risque. Et les entreprises qui développent ou vendent des logiciels d’IA interdits dans l’UE, y compris celles basées ailleurs dans le monde, pourraient se voir infliger une amende pouvant atteindre 4% de leurs revenus mondiaux.

Aperçu du projet de règlement

Le projet de règlement inclurait : 

  • L’interdiction de l’IA pour la surveillance aveugle qui inclut les systèmes suivant directement les individus dans des environnements physiques.
  • L’interdiction des systèmes d’IA qui créent des cotes de crédit sociales.
  • L’autorisation spéciale pour l’utilisation de systèmes d’identification biométrique à distance  comme la reconnaissance faciale dans les espaces publics.
  • Notifications requises lorsque des personnes interagissent avec un système d’IA.
  • Nouvelle surveillance pour les systèmes d’IA à haut risque, notamment ceux qui constituent une menace directe pour la sécurité, comme les voitures autonomes.
  • Évaluation des systèmes à haut risque avant leur mise en service avec obligation de tests pour détecter les biais.
  • La création d’un Conseil européen de l’intelligence artificielle pour aider la commission à décider quels systèmes d’IA sont considérés comme à haut risque.

L’article 4 est considéré comme une des sections les plus importantes de la proposition. Celui-ci interdit certaines utilisations de l’IA, y compris la surveillance de masse et les scores de crédit social. Des groupes de défense des droits numériques et des experts en politique indiquent cependant que cette section doit être améliorée. Selon ces derniers, les descriptions des systèmes d’IA à interdire seraient en effet vagues et remplies de langage flou qui risquent de créer de sérieuses lacunes.

Réaction des experts

Certains estiment que l’interdiction de l’IA pour la surveillance de masse est  beaucoup trop clémente. Par ailleurs, l’interdiction des systèmes de crédit social IA basés sur la  fiabilité est également définie de manière trop étroite. Les systèmes de crédit social n’ont pas à évaluer si une personne est digne de confiance pour décider de choses comme son admissibilité aux prestations sociales.

Selon les membres de l’Association internationale des professionnels de la protection de la vie privée, l’adoption de ces propositions créera un vaste écosystème de réglementation qui attirerait non seulement les créateurs de systèmes d’IA, mais également les importateurs, les distributeurs et les utilisateurs. Cela créerait également un certain nombre d’organismes de réglementation, à la fois nationaux et à l’échelle de l’UE.

Les décideurs politiques de l’UE se préparent à l’annonce officielle du 21 avril. Une fois que le règlement aura été proposé, cependant, il sera sujet à des changements suite aux commentaires des députés européens et devra être mis en œuvre séparément dans chaque État-nation.

Cet article L’Union européenne veut bannir l’IA de surveillance de masse a été publié sur LeBigData.fr.

]]>
24459