Accueil > Intelligence artificielle > Intelligence artificielle : le top 20 des influenceurs français
top influenceurs ia intelligence artificielle france

Intelligence artificielle : le top 20 des influenceurs français

Quelle est la place de la France dans la révolution de l’intelligence artificielle ? Découvrez-le à travers notre sélection des influenceurs français qui représente le pays dans le domaine de l’IA… 

L’intelligence artificielle est considérée par beaucoup comme la quatrième révolution industrielle. Cela ne fait aucun doute : cette technologie va transformer le monde dans lequel nous vivons au point de le rendre méconnaissable.

L’une des questions qui se posent, toutefois, est de savoir qui seront les grands gagnants et les malheureux perdants de cette métamorphose. La vapeur a fait de Londres la capitale industrielle de la planète, tandis que la troisième révolution industrielle aura profité au Japon et à la Silicon Valley.

Demain, lorsque l’IA sera devenu le principal indice de développement économique d’un pays, comment seront redistribuées les cartes ? La France pourra-t-elle conserver sa place parmi grandes puissances mondiales ? Ou risque-t-elle de voir son économie s’effondrer face à l’hégémonie de la Chine et des États-Unis ?

À travers ce dossier, découvrez 20 influenceurs français dans le domaine de l’intelligence artificielle afin de mieux comprendre quelle est la place de la France dans l’IA à l’échelle mondiale. Chercheurs, conférenciers, philosophes ou chefs d’entreprise : issus de secteur et de fonctions très diverses, les vingt acteurs que nous avons sélectionné permettent de représenter toutes les couleurs du spectre de « l’IA française » …

Luc Julia : l’inventeur de Siri

 » L’intelligence artificielle n’existe pas « . Telle est l’affirmation, et le titre du livre, de Luc Julia. Dans cet ouvrage paru en janvier 2019 aux éditions First, le binational Franco-Californien cherche à pourfendre les nombreuses idées reçues sur l’IA. De la naissance de cette technologie jusqu’à aujourd’hui, elle alimente de nombreux fantasmes et fausses croyances et l’expert tient à rétablir la vérité.

Comme il le raconte, le terme d’intelligence artificielle a vu le jour en 1956 lors de la conférence de Dartmouth. C’est à cette époque que John McCarthy persuade ses confrères de nommer ainsi la technologie, alors qu’elle n’a  » rien à voir avec l’intelligence « . Ainsi, Luc Julia préfère le terme d’intelligence  » augmentée « .

De même, il s’exaspère face aux discours alarmistes concernant l’IA et le risque d’un soulèvement des machines. À ses yeux, les Français ont actuellement une image totalement faussée de l’intelligence artificielle, déformée par les médias qui « se focalisent sur le sensationnel au risque de raconter n’importe quoi »…

Ainsi, les affirmations selon lesquelles « les robots vont nous remplacer » sont à ses yeux totalement infondées, et mises en avant par les médias parce que c’est « plus sympathique que de dire que l’intelligence artificielle, c’est avant tout des maths »…

De fait, les Français ont peur de l’IA ou l’idéalisent. Dans les deux cas, leur perception est totalement erronée. Pour Luc Julia, « on a d’un côté le Terminator qui prend le contrôle et nous échappe, ce qui est faux, car l’IA n’a pas d’intelligence artificielle et reste contrôlée par les humains ». Et de l’autre côté, « l’intelligence artificielle magique comme dans le film Her » qui serait également une image fallacieuse mise en avant par Hollywood.

Si ce natif de la région de Toulouse peut se permettre de prendre le contre-pied de Bill Gates ou Elon Musk, tous deux convaincus que l’IA nous annihilera, c’est parce qu’il n’est pas n’importe qui dans le domaine. À l’âge neuf ans, il avait déjà créé un robot pour faire son lit à sa place. Par la suite, il a inventé Siri : le fameux assistant virtuel que l’on retrouve sur les iPhone et tous les autres appareils électroniques récents d’Apple.

Il a aussi co-fondé Nuance, devenue le leader mondial de la reconnaissance vocale. Aujourd’hui vice-président de l’innovation chez Samsung, il s’est vu confier la gestion d’un laboratoire entièrement dédié à l’IA implanté à Paris par le géant sud-coréen avec l’intention de  » faire quelque chose pour la France « . D’ici 2020, ce centre devrait compter une centaine de chercheurs et d’ingénieurs.

Alors qu’il habite la Silicon Valley depuis un quart de siècle, Luc Julia navigue à présent entre les États-Unis et Paris où se situe le Lab de Samsung non loin du QG français de Facebook. Son objectif, et la tâche que lui a confiée Samsung, sont de réunir les plus éminents chercheurs français pour faire avancer la recherche dans le domaine de l’IA…

Pour cet expert, l’intelligence artificielle est une technologie résolument positive. Même s’il est conscient des enjeux énergétiques et sécuritaires qui lui sont liés, Luc Julia est convaincu que les objets connectés dotés d’IA seront bientôt omniprésents dans nos vies pour améliorer notre quotidien…

Concernant le rôle que la France peut jouer dans le futur de l’IA, Luc Julia se montre plutôt chauvin. Selon lui, « même si nous ne sommes pas les meilleurs en données à cause de lois comme le RGPD ni en algorithmes, nous sommes capables de développer de nouveaux types d’algorithmes permettant à l’intelligence artificielle d’être plus généralisée à d’autres domaines parce que nous disposons d’excellents mathématiciens ».

Cet éminent spécialiste considère « qu’il est possible d’être leaders en algorithmes, puisque nos mathématiciens sont leaders depuis trois siècles et que la majorité des leaders IA de la Silicon Valley sont d’ailleurs Français ».

Ainsi, le véritable problème de la France est « un problème de marché, car le pays est trop petit et qu il n’y a pas de scale-up ». En revanche, « l’Europe pourrait être un marché, mais il n’existe pas »…

Malgré tout, le spécialiste considère que le gouvernement prend les bonnes décisions pour conserver sa position avantageuse. Au regard de la stratégie d’Emmanuel Macron, il estime que les investissements sont suffisants et que la formation de chercheurs continue d’être soutenue.

Concernant le futur de l’IA, Luc Julia estime qu’il est actuellement « impossible de voir émerger une intelligence artificielle générale avec les méthodes statistiques et mathématiques ». Selon ses prédictions, même les assistants vocaux comme Siri seront amenés à se spécialiser pour effectuer des tâches toujours plus spécifiques.

Cependant, dans un lointain futur, il n’écarte pas totalement la possibilité de voir une telle entité voir le jour : « l’évolution de la quantique et de la biologie pourraient un jour permettre une telle IA, lorsque l’on comprendra vraiment comment fonctionne le cerveau humain. Nous serons alors en mesure de reproduire son fonctionnement. Dans les années 1950, nous avons d’ailleurs cru y être parvenus et c’est ce qui a stimulé l’apparition de l IA. En réalité, pour l’instant, nous n’en comprenons que 40%, tout au plus »…

Yann Le Cun, inventeur du Deep Learning et vainqueur du Prix Turing

Le 27 mars 2019, le Français Yann Le Cun reçoit le Prix Turing aux côtés de Yoshua Bengio et Geoffrey Hinton. À ce moment, c’est une longue carrière dans le domaine de l’intelligence artificielle qui est enfin récompensée.

Né le 8 juillet 1960 à Soisy-sous-Montmorency, il sera diplômé à l’ESIEE Paris en 1983 puis recevra son doctorat en 1987. Durant sa thèse, passionné par le Machine Learning, il met au point une variante de l’algorithme de rétropropagation du gradient alors largement utilisé pour l’apprentissage des réseaux de neurones.

Il développera ensuite des méthodes d’apprentissage supervisé à l’Université de Toronto puis dans les laboratoires AT&T, puis se penchera sur la conception d’algorithmes de compression du format d’archivage DjVu et sur la reconnaissance automatique de chèques. La technique des réseaux convolutifs pour la reconnaissance d’image, inventé par ses soins, sera utilisée pour la lecture optique de chèques par le Crédit Mutuel de Bretagne.

Par la suite, il officie comme professeur d’informatique et de neurosciences à l’université de New York au sein de laquelle il crée le Center for Data Sciences. En 2013, Mark Zuckerberg invite Yann Le Cun à rejoindre Facebook pour créer et gérer les laboratoires d’intelligence artificielle FAIR à New York, Menlo Park, et Paris depuis 2015.

Au sein de ce laboratoire, il travaille notamment sur la technologie de reconnaissance d’images et sur un assistant virtuel capable d’effectuer des tâches de façon autonome. D’abord chef de division en recherche sur l’IA, il deviendra scientifique en chef de l’IA chez Facebook.

Au cours de sa carrière, Yann Le Cun a publié plus de 130 documents et articles sur l’intelligence artificielle. Ses thématiques de prédilection sont la vision par ordinateur, les réseaux de neurones et la reconnaissance d’image dont il est considéré comme l’un des précurseurs.

Cet expert estime que le développement de l’IA requiert une compréhension théorique intégrale de l’apprentissage profond. Il considère aussi que le Deep Learning devra impérativement être intégré avec des systèmes de raisonnement et de planification, et que l’apprentissage des machines devra s’inspirer du fonctionnement du cerveau biologique. Cependant, Yann Le Cun estime que l’intelligence artificielle diffère fondamentalement de l’intelligence humaine

Bernard Ourghanlian, directeur technique et sécurité de Microsoft

Après un début de carrière en tant qu’enseignant et chercheur à l’université d’Orsay, c’est en 1999 que Bernard Ourghanlian rejoint Microsoft France au poste de Directeur Technique. Par la suite, en novembre 2002, il est nommé Directeur Technique et Sécurité (CTO et CSO). Un poste qu’il occupe encore aujourd’hui, près de 20 ans plus tard.

Au sein de la firme de Redmond, le Français est chargé de définir la conduite globale et la stratégie de Microsoft en France pour la technologie et la sécurité. Il gère également les risques technologiques de Microsoft France. Depuis le début de l’année 2009, il est aussi membre du comité de direction. Un rôle qu’il occupe aussi au sein du centre de recherche commun qui a été créé entre l’INRIA et Microsoft Research. Notons qu’il occupe également les postes d’administrateur du Syntec Numérique et de l’Université de Paris Sud.

Lors des interactions avec les responsables gouvernementaux et les agences gouvernementales, les directions informatiques, les institutions de recherche ou d’éducation et les comités de standardisation, c’est Bernard Ourghanlian qui représente Microsoft France. Il travaille également en collaboration avec la maison-mère Microsoft Corporation, Microsoft Research et les différents groupes produits du géant américain.

La raison pour laquelle Bernard Ourghanlian figure dans ce classement, c’est parce qu’il s’intéresse à l’intelligence artificielle de très près. Selon lui, cette technologie est désormais indispensable dans le domaine de la cybersécurité. Chez Microsoft, ceci se traduit par la mise en place de la plateforme Security Graph basée sur l’IA.

Dans un rapport captivant publié sur le site web de Microsoft, Bernard Ourghanlian s’exprime sur le futur de l’intelligence artificielle en délivrant ses prédictions. Selon lui, l’IA va se développer jusqu’à devenir une extension de nos sens. Cependant, cet expert se préoccupe aussi des questions éthiques liées au développement de la technologie…

Olivier Bousquet, directeur du centre de recherche sur l’IA de Google France

À 10 ans, Olivier Bousquet est marqué à vie par le film  » Wargames « . Il rêve de devenir le professeur Falken, ce personnage qui parvient à rendre intelligent l’ordinateur de la défense américaine en le faisant s’affronter lui-même dans des simulations.

Quelques années plus tard, après avoir lu le livre  » Cent milliards de neurones « , il tente de simuler et d’entraîner un réseau de neurones sur son PC… en vain. Ce n’est que par la suite, en écumant les ouvrages sur les réseaux de neurones, que la création d’IA devient un hobby.

En 2002, il reçoit son diplôme en Machine Learning de l’Ecole Polytechnique. Il est alors chercheur au Max Planck Institute de Tuebingen, et travaille sur l’apprentissage automatique et plus précisément sur la théorie de l’apprentissage statistique et les méthodes Kernel.

En 2004, il joint une startup où il dirige une équipe de recherche et développe un logiciel de Machine Learning permettant de prédire la qualité de fabrication d’un produit. C’est en 2007 qu’il entre à Google Zurich et travaille sur le moteur de recherche du géant de Mountain View, notamment pour en améliorer la compréhension du langage.

En 2016, il prend la tête des équipes Google Brain de Zurich et Paris et travaille sur les thématiques du Deep Learning et de la compréhension du langage. Ses domaines de prédilection sont l’apprentissage non-supervisé, l’automatisation du Deep Learning, ou encore l’application de l’IA dans les domaines de la santé et de l’éducation.

En janvier 2019, Google annonce le lancement de son laboratoire parisien de recherche fondamentale sur l’intelligence artificielle. C’est Olivier Bousquet qui en prend la tête et se voit chargé de monter une équipe de chercheurs d’élite.

Selon cet expert, l’avenir proche de l’intelligence artificielle repose sur une compréhension et des interactions plus naturelles entre l’homme et machine. Sur le long terme, même s’il reconnait que l’IA peut s’avérer surprenante notamment en ce qui concerne la notion de créativité, il estime qu’une machine dotée une conscience ou d’une adaptabilité comparable à celle du cerveau humain est encore loin de voir le jour…

Eric Dosquet, Chief Innovation Officer France BeNeLux Accenture-Avanade

Diplômé de HEC Paris et doctorant en sciences de gestion à l’Ecole Polytechnique, Eric Dosquet est aujourd’hui  « Chief Innovation Officer France BeNeLux Accenture-Avanade ». En parallèle, il siège également au conseil d’administration de plusieurs start-up IA en France, en Suisse et en Scandinavie.

Il est le co-auteur de plusieurs ouvrages sur l’IoT et la Data, le marketing mobile et l’innovation : des matières qu’il enseigne par ailleurs en école de commerce. Il a également co-écrit l’ouvrage « 24 heures d’innovations » et « La révolution des assistants vocaux » aux côtés d’Oxana Gouliaéva. En parallèle, il siège également au conseil d’administration de plusieurs start-up en France, en Suisse et en Norvège.

Parmi les qualités d’influenceurs d’Eric Dosquet, on cite souvent son sixième sens lui permettant de détecter les signaux faibles avant tout le monde et ainsi d’éviter le danger. Son sens inné de la connexion contribue aussi à développer un écosystème centré autour des nouvelles technologies à l’échelle française

Sa définition de l’intelligence artificielle est simple et concise : « ce n’est qu’un code informatique ». Cependant, « ce code est capable de s’auto corriger et d’apprendre de façon autonome, et peut être appliqué à un spectre très large y compris à nos sens et à notre capacité de prise de décision ». Selon lui, « c’est la raison pour laquelle nous avons peur, car nous craignons la création d’un super humain qui nous surpasserait à l’instar du mythe du golem »…

D’un point de vue plus philosophique, Eric Dosquet estime que « l’intelligence artificielle est ce qui va permettre à l’humanité d’entrer dans une nouvelle ère après la domestication du feu, des bêtes, la maîtrise de la vapeur, de l’électricité ou l’émergence de l informatique ». À ses yeux, cette technologie est celle qui va permettre l’avènement de « l’homme augmenté ».

Alors, la France peut-elle compter parmi les leaders de l’intelligence artificielle ? « Non, elle ne le peut pas », répond-il de façon épidermique. Pour cause, le pays est tout simplement « trop petit ». Et même si nous disposons d’un « formidable outil de recherche » qui est le CNRS, « son budget est dix fois moins important que le budget de recherche d’un GAFAM comme Google ». De plus, « la recherche en France ne représente que 2% du PIB, contre 3% pour la Chine et alors même que l’engagement de l’État est fixé à 3% ». Face à ces chiffres, « on comprend que les ordres de grandeur ne sont pas les bons ».

En ce qui concerne l’Europe, les choses sont plus nuancées. À l’heure actuelle, ce n’est pas un secret : le vieux continent accuse un retard conséquent sur la Chine et les États-Unis. En ce qui concerne les brevets, notamment, il existe un véritable fossé. Même si le nombre de brevets liés à l’IA déposés par l Europe est passé de 20 000 en 2008 à 80 000 en 2018, les entreprises qui déposent le plus de brevets IA dans le monde sont Microsoft, IBM, Samsung, Qualcomm et Google.

Il faut descendre à la sixième place du classement pour trouver un Européen : Philips, suivi par Siemens. « Sauf que pour 20 000 brevets déposés par Microsoft, Philips en dépose 7000 ». De fait, « sachant que les brevets sont la croissance de demain », il ne fait aucun doute que nous sommes très en retard.

Un autre point qui traduit la faiblesse de l’Europe dans le domaine de l’IA est celui du volume de données à disposition. « Les entreprises qui détiennent le plus de données sont Apple, IBM, Microsoft, Google, Amazon, Facebook », explique Eric Dosquet. Or, les données sont l’essence de l’intelligence artificielle. Par exemple, « avec deux milliards de photos postées chaque jour sur Facebook et Instagram, Facebook est en mesure d’entraîner les meilleurs algorithmes de vision par ordinateur ». On retrouve ensuite les entreprises chinoises Baidu, Tencent et Alibaba.

Il n’y a donc « aucune entreprise européenne dans le top 10 ». C’est la raison pour laquelle, « comme l’a dit Laurent Alexandre, l’Europe reste à ce jour une colonie numérique des États-Unis ». Néanmoins, Eric Dosquet reconnait que l’Europe a des atouts qui pourraient potentiellement lui permettre de compter parmi les leaders de l’IA sur le long terme : « L’Europe est la première puissance économique mondiale, et nous avons les meilleures universités au monde ». La preuve, « les géants américains et chinois viennent construire leurs centres d’intelligence artificielle en France ou rachètent les startups européennes et françaises afin d’acquérir leurs données ou des briques technologiques spécifiques ».

Pour exploiter ces atouts, nous aurions donc besoin « d’une politique européenne volontariste et d’une ambition, et de combiner les forces propres à chaque pays comme l’industrie allemande, la recherche française, ou encore la mainmise de la Suède sur le domaine du divertissement avec Spotify ». À ses yeux, c’est le rôle de Thierry Breton, désormais commissaire européen, de « faire regagner à l’Europe sa souveraineté numérique ». Pour cause, « comme l’a dit Vladimir Poutine, celui qui gagnera la guerre de l’IA dominera le monde »…

Dans ces conditions peu favorables, quel sera l’impact de l’intelligence artificielle sur la France ? Sommes-nous préparés à la révolution de l’IA ? Comme le rappelle Eric Dosquet, « la France est le pays de la révolution, qui a ouvert la voie à la démocratie dans le monde entier à commencer par la Chine et la Russie ». Néanmoins, la question qui se pose est de savoir « si l’on pourra faire face à la révolution technologique comme nous avons fait face à la révolution politique »…

Sur le plan technologique, « le pays s’adaptera qu’il soit prêt ou non, car le changement vient plutôt généralement des grandes entreprises étrangères ». Par exemple, « Tesla a introduit le concept de voiture autonome, mais nous achèterons bientôt des Peugeot ou des Renault autonomes qui sont d’ailleurs déjà fonctionnelles et n attendent plus qu’à être homologuées ».

En revanche, sur le plan économique, « nous ne sommes absolument pas prêts ». Pour faire face aux changements à venir, « il est nécessaire de développer la notion de reskilling, qui consiste à poursuivre la formation des étudiants tout au long de leur carrière 10, 20, 40 ans après leur diplôme » en fonction des évolutions technologiques et de la demande du marché. C’est donc tout le système éducatif qui doit être repensé en profondeur…

Fort heureusement, « l’accès aux compétences informatiques s’ouvre avec l’ouverture d’écoles comme Simplon ou de plateformes comme OpenClassrooms ». De même, « l’edutech se développe également, avec l’émergence de startups visant à accompagner la société dans le reskilling et l’apprentissage de nouvelles compétences adaptées aux nouveaux métiers qui apparaissent et n’existaient pas avant ».

De manière générale, « la France n’est pas plus prête ou moins prêt qu’un autre pays pour faire face à l’IA. En revanche, c’est un pays très inflammable puisque chaque réforme entraîne un blocage général ». Or, avec en ce qui concerne l’intelligence artificielle, « nous entrons dans une compétition mondiale, et si on ne veut pas effrayer les investisseurs extérieurs et les faire fuir il sera nécessaire que les Français prennent conscience que la technologie n’est pas là pour détruire, mais pour créer de nouveaux emplois »…

Pour le futur de l’intelligence artificielle, la vision d’Eric Dosquet repose sur plusieurs points. Tout d’abord, « on peut attendre une multipolarité des technologies, qui vont arriver de partout ». Pour cause, « jamais dans l’histoire de l’humanité l’accès au capital, à la puissance informatique avec le Cloud, et au savoir avec les MOOCs n’a été aussi facile ». Désormais, n’importe quel être humain peut créer de nouvelles technologies, quelle que soit sa position géographique.

Le futur sera également « multimodal puisque les briques technologiques vont venir se croiser avec les différentes sciences ». Par exemple, « l’humain est déjà dépassé par l’IA dans sa capacité de prédiction de cancer à partir de l’imagerie médicale ». Ainsi, « l’IA peut permettre de prolonger l’espérance de vie et de réduire les coûts dans le domaine de la médecine, améliorer le rendement à l’hectare dans l’agriculture, ou conférer un avantage compétitif dans le domaine sportif ».

En revanche, aux yeux d’Eric Dosquet, « le futur de l’IA sera éthique ou ne sera pas ». Selon lui, « l’émergence des fake news et des deepfakes démontre qu’il est possible d’influencer une population avec des choses qui n’existent pas ». Ceci a déjà été prouvé, « avec l’influence avérée de puissance étrangère via les réseaux sociaux dans l’élection américaine, le vote du Brexit ou l’élection française ».

Ces exemples « suffisent à comprendre toute l’importance de l’éthique dans la construction des algorithmes, parce qu’on parle là du fondement démocratique de nos sociétés ». Or, « la vision européenne de l’éthique n’existe tout simplement pas dans les universités américaines et chinoises ». De fait, « elle n’existe pas non plus dans les algorithmes d’intelligence artificielle puisqu’il n’y a pas aujourd’hui de licorne européenne ».

L’expert prend notamment l’exemple du système de crédit social sur lequel est désormais basée toute la vie sociale du citoyen chinois lambda. Comme il l’explique, « ce score est basé sur des critères dictés par un gouvernement autoritaire, et non sur un pacte social démocratique ». Ainsi, « la Chine, première puissance de l’intelligence artificielle, développe une société basée sur une philosophie qui n’est pas du tout la nôtre ».

Ce modèle est « d’ailleurs en train de se dupliquer chez ses voisins tels que la Mongolie et le Viet Nam… mais que se passera-t-il s’il arrive chez nous ? C’est notre modèle démocratique qui sera mis au défi ». En d’autres termes, « l’Europe est le berceau de l’éthique mondiale, mais aujourd’hui nous n’avons plus de porte-voix et notre capacité à exister et la pérennité du modèle social démocratique européen sont remises en cause ». En conclusion, « sans une IA éthique, la fin de la démocratie est annoncée »…

Bruno Maisonnier, CEO et fondateur de la startup AnotherBrain

Diplômé de l’X et de l’école nationale supérieure des Télécommunications au début des années 1980, Bruno Maisonnier a ensuite orienté sa carrière autour de quatre grands axes : les technologies informatiques, la gestion des banques, l’entrepreneuriat dans la robotique et l’intelligence artificielle.

Il est le co-fondateur d’Aldebaran Robotics, une entreprise devenue leader mondial dans le domaine de la robotique. Il occupera le poste de président de la firme de 2005 à 2015, mais la revend au groupe japonais SoftBank en 2012. En 2017, il fonde la startup AnotherBrain.

À travers ce nouveau projet, son ambition est de créer des puces dédiées à l’intelligence artificielle. Là où la startup se démarque, c’est par sa volonté de créer une intelligence artificielle d’un genre nouveau directement inspirée par l’intelligence humaine : Organic AI.

Cette IA se distingue par plusieurs points par rapport aux IA traditionnelles basées sur le Deep Learning et les réseaux de neurones. Tout comme l’intelligence humaine, elle analyse les données en temps réel. Ceci permet par exemple aux capteurs IoT d’analyser les données sans avoir à les transmettre vers des serveurs distants.

Une spécificité qui pourrait permettre de rendre chaque capteur intelligent, et de réduire considérablement l’énergie consommée par l’internet des objets et l’analyse de données. De plus, Organic AI peut s’entraîner sans avoir besoin de larges ensembles de données. Là encore, son entraînement consomme nettement moins d’énergie que celui des IA classiques.

Dernier point fort et non des moindres : Organic AI met un terme au fonctionnement en boîte noire des intelligences artificielles puisque ses décisions peuvent être  » expliquées « . Ses similitudes avec le cerveau humain rendent également les interactions plus naturelles et intuitives.

AnotherBrain compte mettre sa technologie au service des voitures autonomes, de la robotique, de l’Internet des Objets, des drones, et de toutes les industries dans lesquelles elle peut s’avérer utile. Ses algorithmes seront délivrés par le biais de puces et d’applications logicielles.

Début octobre 2019, la startup AnotherBrain a levé 19 millions de dollars auprès d’investisseurs de renom français et internationaux. Aujourd’hui, cette startup est considérée comme l’une des plus ambitieuses dans le milieu de l’intelligence artificielle française. Son fondateur, Bruno Maisonnier est perçu comme un visionnaire dans les domaines de l’IA et de la robotique et comme un chef de file pour les startups du secteur…

Eric Adrian, directeur général chez UiPath France

Né le 8 mai 1960, Eric Adrian est aujourd’hui directeur général de UiPath France, BeLux et Suisse. Auparavant, il a travaillé dans les plus grands groupes du secteur du logiciel et notamment chez IBM où il a contribué à promouvoir Watson et a  dirigé plus de 200 entités logicielles acquises par la firme américaine.

Son entrée chez UIPath est le fruit d’une rencontre avec le Roumain Daniel Dines, CEO et fondateur de l’entreprise, avec qui il partageait la même vision de l’intelligence artificielle et surtout un sens commun sur “ l’utilisation “ de l’IA. Or, selon Eric Adrian, “ c’est finalement l’utilisation qu’on fait de l’IA qui la définit le mieux “.

A ses yeux, comme à ceux de Daniel Dines, l’une des utilisations les plus pertinentes de l’IA est l’automatisation des processus. Pour cause, celle-ci requiert des capacités similaires à celle de l’être humain. A commencer par la capacité à lire un écran de la même façon qu’un être humain grâce au Computer Vision. Tous deux savaient que ce marché deviendrait colossal, même s’il n’en est, encore aujourd’hui, qu’à ses balbutiements…

A cette époque, en 2018, UIPath ne comptait qu’une centaine de personnes et trois bureaux européens à Bucarest, Londres et Munich. Daniel Dines lui confie la mission de créer le bureau français de la firme à Paris. C’est ici qu’Eric Adrian dirige aujourd’hui une équipe de plus de 20 professionnels seniors, avec pour ambition de faire de ce bureau le temple de la RPA sur le marché français.

La RPA, c’est la Robotic Process Automation ou automatisation des processus robotisés. Un domaine dans lequel UIPath s’est hissée au rang de leader mondial, notamment “ grâce à ses investissement dans la R&D et sa capacité à faire du Computer Vision et de la NLP de manière très pointue “.

Aujourd’hui, la firme née à Bucarest compte 55 bureaux répartis sur 25 pays et plus de 3000 employés. Au cours des deux dernières années, elle a levé 1 milliard de dollars et est à présent valorisée à plus de 7 milliards de dollars. Il s’agit de la valorisation la plus forte et la plus rapide dans le domaine de l’intelligence artificielle…

Mais alors, la RPA, qu’est-ce que c’est au juste ? Selon Eric Adrian, “ il s’agit d’un ensemble de technologies permettant de débarrasser les employés d’une entreprise des tâches rébarbatives, stressantes et ennuyantes auxquelles nous accordons tous 30 à 50% du temps passé devant nos ordinateurs pendant une journée de travail “.

Une fois soulagés de ce labeur fastidieux, “ les employés peuvent redevenir créatifs dans leur métier, ce qui est finalement le propre de la nature humaine “. Ainsi, la RPA “ redonne la place à l’être humain dans le monde du travail, tandis que les tâches robotiques sont effectuées par les machines qui seront toujours plus performantes pour ce type de tâches “.

Le spécialiste français prend l’exemple des banques, au sein desquelles la RPA permet aux employés de passer plus de temps à dialoguer avec les clients et à trouver des solutions à leurs côtés “ plutôt que de rester à effectuer des tâches robotiques en cliquant devant un écran “…

Pour Eric Adrian, on peut donc bel et bien parler d’une “ révolution industrielle “ amenée par l’intelligence artificielle. “ Après la vapeur, l’électricité et internet, l’automatisation est une quatrième révolution industrielle qui va permettre, pour la première fois, de réunir l’homme et la machine plutôt que de les opposer “.

Tout comme les trois premières révolutions industrielles, “ l’IA va permettre à l’homme de continuer à se défaire de la pénibilité du  travail “. C’est d’ailleurs ce qui se dégage des retours des grands clients d’UIPath, comme la SNCF, affirmant que “ l’automatisation des processus a permis de retrouver une qualité de vie au travail “.

Ceci explique pourquoi nous convergeons à présent vers une “ hyper-automatisation des processus “, puisque les entreprises font le choix d’équiper la quasi-totalité de leurs employés en assistants robotiques.

En France, tout particulièrement, Eric Adrian confirme que l’automatisation est en passe d’amorcer une forme de renaissance industrielle. A ses yeux, “ la France est en bonne position grâce à un gouvernement qui favorise l’essor des nouvelles technologies comme l’IA, mais aussi parce qu’elle compte parmi les pays dont les entreprises s’équipent le plus rapidement en RPA “.

Aujourd’hui, plus du tiers des 1500 plus grosses entreprises françaises sont équipées de façon plus ou moins importante en solutions RPA. Pour cause, “ beaucoup d’entreprises du CAC 40 considèrent l’automatisation comme l’un des trois principaux key factors de la transformation digitale “.

L’automatisation, oui, mais jusqu’à quel point ? Peut-on craindre un excès, y a-t-il des points négatifs à cette mutation ? Pas selon Eric Adrian. A ses yeux, il s’agit de “ l’une des rares technologies bénéfique aussi bien pour les entreprises que pour leurs employés “. En effet, sans surprise  “ lorsqu’on demande qui veut être débarrassé des tâches ennuyeuses et rébarbatives de son travail, tout le monde lève la main et dit oui “.

Pour le futur, l’expert français révèle que les logiciels de RPA seront bientôt capable de détecter automatiquement les tâches récurrentes et de proposer de les automatiser sans que l’utilisateur n’ait besoin de s’en charger manuellement.

En outre, les interactions entre l’Homme et son robot assistant seront bientôt plus naturelles. Alors que le dialogue se fait aujourd’hui par le biais d’un clavier et d’un écran, il reposera bientôt sur le langage naturel “ un peu comme Tony Stark communique avec Jarvis, pour les fans de Marvel “, sourit-il…

Manuel Davy : Vekia, l’intelligence artificielle au service de la logistique

Après avoir fait ses armes à l’école centrale de Nantes, et après quelques mois en tant que soldat dans les troupes alpines de Bourg-Saint-Maurice, Manuel Davy devient chercheur spécialisé en Machine Learning au CNRS et au centre Inria de Lille où il co-dirige l’équipe Sequel.

Attiré par l’industrie, il collabore avec les entreprises françaises de grande distribution telles que Auchan, Leroy Merlin, Chronodrive et Jules pour les aider à développer des outils de prévisions. De fil en aiguille, aidé par le centre Inria et le dispositif 25.1 du CNRS, il décide en 2008 de fonder sa start-up : Vekia.

Dans un premier temps, durant deux ou trois ans, la startup propose du conseil aux directions informatiques des grands groupes sur des problématiques telles que la détection de fraude, la gestion du personnel et la prévision des stocks. Par la suite, Vekia se spécialise dans la création de logiciels dédiés à la logistique et plus précisément à la gestion des stocks.

L’objectif de Manuel Davy ? Aider les retailers français à faire face à la concurrence des géants internationaux comme Amazon et Alibaba grâce à des solutions de Machine Learning. Grâce à l’IA, les stocks sont gérés automatiquement afin de garantir la disponibilité des différents produits partout en France.

Loin d’être une startup parmi tant d’autres, Vekia délivre aujourd’hui les solutions de Machine Learning les plus avancées au monde pour le pilotage des stocks dans la grande distribution. Elle propose désormais aussi ses solutions aux entreprises de SAV pour la gestion des pièces détachées.

Utilisées par plusieurs grands groupes dans le monde, les solutions de Vekia reposent sur les technologies les plus avancées, sur des algorithmes développés en interne et sur de larges volumes de données fournies par les clients ou par des sources externes.

Aux yeux de Manuel Davy, l’IA représente une opportunité pour la France de redevenir un leader technologique et scientifique à l’échelle mondiale. Cependant, pour réussir, l’expert considère que la France doit impérativement former ses citoyens à l’IA dès l’école maternelle, afin de former non pas des utilisateurs, mais des créateurs d’IA. De plus, notre pays doit selon lui se focaliser sur l’intelligence artificielle spécialisée puisque l’IA généraliste est déjà accaparée par les géants tels que Microsoft et Google…

Rand Hindi, l’homme qui veut faire disparaitre la technologie grâce à l’IA

Né de parents libanais, Rand Hindi est ce que l’on pourrait appeler un enfant précoce. Dès l’âge de dix ans, il a commencé à coder pour ensuite fonder un réseau social à quatorze ans et une agence web à quinze ans. C’est à 18 ans qu’il se lance dans le Machine Learning.

Diplômé d’un doctorat en bio-informatique de l’University College London, il dispose d’un solide bagage qui lui a permis de devenir expert en intelligence artificielle. Il rejoindra notamment le conseil national du numérique français, au sein duquel il se focalisera sur les problématiques liées à l’intelligence artificielle et à la confidentialité.

En 2012, à Paris, alors âgé de 27 ans, il crée son entreprise  » Snips «  qui lui permettra de se hisser dans la liste des entrepreneurs de moins de 35 ans du MIT et dans le top des entrepreneurs de moins de trente ans de Forbes.

Snips développe une plateforme vocale pour les objets connectés, permettant aux entreprises d’ajouter un assistant vocal à leurs produits. Contrairement à d’autres solutions similaires, cette plateforme permet de tout exécuter localement sur l’appareil. De fait, les données ne sont pas transférées vers le Cloud et c’est ce qui permet à Snips d’être la première technologie vocale conforme au RGPD.

Au-delà de l’importance accordée à la confidentialité, l’objectif surprenant de Rand Hindi est de « faire disparaître la technologie » grâce à l’intelligence artificielle. En injectant de l’IA dans tous les objets connectés, Snips espère rendre la technologie si intuitive qu’elle finira par s’effacer en arrière-plan. Les interactions entre Homme et machine seront alors aussi intuitives qu’une simple conversation entre deux humains…

Stephen Mallard, l’optimiste de l’intelligence artificielle

Spécialiste et de la disruption et de la transformation digitale et de leurs impacts sur le futur, Stephen Mallard est tombé très tôt dans la marmite des technologies de pointe. Avant même de passer son bac, il avait déjà développé un logiciel de calcul de financements pour un courtier en crédit immobilier et passe le plus clair de son temps libre à coder sur son ordi.

Après un Bachelor en économie et finance à l’Université du Québec, il intègre l’IEP de Paris et obtient un « Master en International Economic Policy ». Il commencera ensuite sa carrière dans une startup au sein de laquelle il gère la communication, puis poursuivra son chemin en tant que spécialiste de la transformation digitale dans diverses entreprises.

C’est alors qu’il commence à intervenir auprès d’autres entreprises pour les sensibiliser sur cette transformation à venir. Cette activité continuera, et Stephen Mallard est aujourd’hui l’un des principaux conférenciers et auteurs français dans le domaine de l’intelligence artificielle. Il intervient régulièrement auprès d’entreprises et du grand public afin de les éveiller sur les changements liés à l’IA et aux autres technologies modernes qui nous attendent à l’avenir.

Ses conférences ont bien souvent un impact très positif sur le public. On lui doit aussi le livre “Disruption – Intelligence artificielle, fin du salariat, humanité augmentée” sorti en 2018, aux éditions Dunod, dans lequel il décrit l’impact de la disruption sur le modèle économique en vigueur.

S’il existe d’autres conférenciers spécialisés dans l’intelligence artificielle en France, Stéphane Mallard tire son épingle du jeu par sa vision optimiste du changement. À ses yeux, l’essor de l’intelligence artificielle ne signifie pas forcément que les robots vont tous nous mettre au chômage. Il estime qu’il est possible de vivre avec les machines en harmonie, à condition de respecter certaines règles…

Laurent Stefani, directeur de l’intelligence artificielle chez Accenture

Dans le domaine de l’intelligence artificielle, Laurent Stefani est un expert renommé à la fois en France et aux États-Unis. Diplômé de Polytechnique, de Telecom Paris et de l’Universidad Politécnica de Madrid, avec plus de 14 ans d’expérience à son actif dans l’industrie, il dirige aujourd’hui les activités du géant Accenture dans le domaine de l’IA.

Son rôle ? Développer des systèmes informatiques capables de comprendre, d’agir et d’apprendre pour travailler de façon autonome ou prêter assistance aux humains. Il dirige les équipes en charge d’implémenter des solutions d’analyse et de compréhension du texte, d’apprentissage profond, d’agents virtuels, ou encore de vision assistée par ordinateur.

Récemment, il a également travaillé sur une spécialité d’intelligence artificielle appelée l’Advanced Processing et consistant à appliquer la technologie de vision par ordinateur à l’imagerie médicale. Le but est ici de prêter main-forte aux radiologues pour analyser de vastes quantités d’images et réaliser des diagnostics à moindre coût. Dans ce domaine, Laurent Stefani est titulaire de cinq brevets et a développé des applications cliniques en cardiologie, oncologie, vasculaire et neurologie. Il a également soutenu différents partenariats académiques aux États-Unis pour améliorer la fiabilité des algorithmes existants.

Jean-Christophe Bonis, le Futuriste français

Autrefois analyste financier pour des fonds d’investissement, Jean-Christophe Bonis a décidé de tout plaquer il y a 15 ans pour donner du sens à sa vie. C’est alors qu’il a commencé à voyager dans le monde entier, afin d’observer de ses propres yeux l’impact des nouvelles technologies et des enjeux qui y sont liés sur les différentes cultures, sur les comportements des consommateurs, des entreprises et de la société.

Désormais, ce Futuriste de renom est à la fois blogueur, écrivain et conférencier. Il tente de mettre en lumière les immenses défis qui attendent l’humanité suite à l’essor de technologies telles que l’intelligence artificielle, mais aussi les biotechnologies, la robotique ou les nanotechnologies. Son objectif est de permettre aux différents pays du monde de se préparer à ces défis, et de trouver des solutions pour remédier aux diverses problématiques.

Cependant, Jean-Christophe Bonis est un optimiste de nature. En dépit de ces challenges qui attendent l’humanité, il est persuadé que l’impact de l’IA est des nouvelles technologies sur nos sociétés sera principalement positif. Ainsi, il fait partie de ceux qui pensent que la robotisation du travail le rendra aussi plus humain, et que les technologies de la Smart City permettront de créer des villes utopiques.

Parallèlement à ses ouvrages et à ses conférences sur la scène internationale et les plus grands salons mondiaux, cet expert joue aussi le rôle de Business Angel dans le domaine de la Deep Tech. Il est sans cesse en quête de projets novateurs à soutenir, et a notamment fondé en 2009 Oxymore : la « boutique de stratégie » dédiée aux innovations technologiques. En 2018, il a également fondé ISABO, startup spécialisée dans l’intelligence artificielle.

Jean-Guy de Ruffray, spécialiste IA et RGPD

jean guy ruffray

Avocat associé au sein du cabinet Altana, Jean-Guy de Ruffray compte parmi les spécialistes français des questions de droit liées à l’intelligence artificielle. C’est de manière naturelle qu’il est entré dans ce domaine, et pour cause, selon lui, « dès lors que l’on conseille une entreprise du numérique ou une entreprise traditionnelle dans sa transition numérique, on est aujourd’hui nécessairement confronté à la question de l’intelligence artificielle ».

Par exemple, l’avocat a dû faire face à des scénarios de formation en intelligence artificielle, de services IA d’aide au recrutement déployés par ses clients, d’optimisation de flux dans le domaine des transports, ou encore d’utilisation de systèmes de reconnaissance faciale. Pour tous ces cas de figure, les entreprises n’ont d’autres choix que de consulter des avocats concernant le cadre juridique.

Pour Jean-Guy de Ruffray, également spécialiste de la protection des données, « le RGPD permet de mettre de l’éthique dans l’intelligence artificielle qui fait peur à beaucoup d’entreprises et d’assainir le marché ». Le règlement européen permet notamment « d’encadrer l’usage des données pour s’assurer que seules celles nécessaires au développement d’un algorithme soient utilisées ».

De plus, « il pose un garde-fou en assurant que la décision ne sera pas prise que par une machine ». Le troisième point qui relie le RGPD à l’IA est celui de « la transparence et du droit d’être informé de la logique des algorithmes ». Ironiquement, comme il le souligne, « l’IA peut à l’inverse aider à mettre en place la compliance RGPD au sein d’une entreprise notamment via la détection de fuite d’informations, ou le tracking de propos injurieux dans les commentaires au sujet d’une marque ».

Pour autant, l’IA et le RGPD sont-ils conciliables ? De prime abord, « le RGPD se présente effectivement comme un frein pour l’intelligence artificielle puisque les données sont la base de l’IA ». Or, le règlement impose de nombreuses contraintes telles que « la nécessité d’informer les gens, de traiter les données de façon transparente, de ne pas détourner la finalité pour laquelle elles ont été collectées et de collecter que les données nécessaires au traitement ».

Néanmoins, « ce peut être un mal pour un bien et le RGPD peut permettre que l’IA se construise avec éthique et dans le respect des individus ». De fait, « à terme, nous avons tous à y gagner ». De même, « le RGPD peut permettre de restaurer la confiance du public envers la technologie, et donc être un moteur en convainquant le marché que l’IA doit être éthique ».

Alors, le RGPD risque-t-il de mettre la France et l’Europe en retard dans la course à l’IA ? Jean-Guy de Ruffray ne le pense pas. Il rappelle « que les chercheurs français sont très connus dans l’intelligence artificielle » et disposent d’un vrai savoir-faire. Cependant, « il est vrai que beaucoup d’entre eux sont aujourd’hui rachetés par des géants américains et que la situation est donc assez paradoxale »…

Pour créer une IA « RGPD-friendly », l’avocat recommande plusieurs mesures. Il faut tout d’abord « faire en sorte que cette IA soit légale au niveau collecte de données ». Il est donc important de prendre soin d’informer les personnes, et qu’elles prennent bien connaissance des conditions.

En outre, il convient de « s’assurer de mettre en place des techniques permettant de sortir de la notion de données personnelles ». On peut par exemple se tourner vers l’anonymisation, « tout en s’assurant que les informations conservent une valeur économique ».

Au-delà du RGPD, l’intelligence artificielle soulève aussi des questions plus générales pour la justice. En guise d’exemple, Jean-Guy de Ruffray cite « la question de la responsabilité des voitures autonomes ou des robots en cas d’accident ». Il s’agit d’une question qui taraude la justice et « agite notamment beaucoup les assureurs »…

Bien évidemment, ces questions commencent tout juste à émerger alors que l’intelligence artificielle n’en est qu’à ses balbutiements. Au fil des années à venir, elles risquent fort de susciter de grands débats juridiques et philosophiques

Oxana Gouliaeva, spécialiste du luxe 2.0 et de la BeautyTech

Diplômée de Science-Po Paris, avec plus de 15 ans d’activité dans le domaine du commerce international, Oxana Gouliaéva est aujourd’hui consultante en marketing et en innovation chez Accenture / Avanade. Son rôle est d’aider les clients à anticiper le futur afin d’y préparer leurs entreprises.

Sa spécialité ? L’intelligence artificielle, mais aussi la réalité virtuelle et la réalité augmentée. Plus spécifiquement, ses domaines de prédilection sont les assistants vocaux, le Nouveau Luxe et la BeautyTech.

Réputée pour sa capacité à rendre intelligibles les sujets techniques les plus complexes pour les entreprises, elle se distingue aussi par sa faculté à s’adapter à de nouvelles problématiques. Une qualité indispensable dans le monde en perpétuel changement des nouvelles technologies.

Elle est l’auteure de nombreuses études et recherches sectorielles, notamment sur l’IA, le travailleur augmenté et la beauty tech, mais aussi de plusieurs ouvrages sur l’innovation. Elle est notamment co-auteure du livre  » 24 heures d’innovations  » et de « La Révolution des assistants vocaux » aux éditions Dunod.

Jérome Pesenti, directeur du Facebook FAIR

Depuis plus de 20 ans, Jérome Pesenti est impliqué dans les domaines de l’intelligence artificielle, du traitement naturel du langage, du Big Data ou encore du Machine Learning. Diplômé de Normale Sup, d’une maitrise de philosophie à la Sorbonne et d’un DEA en sciences cognitives à l’Université Pierre et Marie Curie, c’est en terminant sa thèse de mathématiques à l’Université Paris-Sud qu’il a réalisé que seules quatre ou cinq personnes la liraient.

C’est alors, en l’an 2000, qu’il a décidé de donner plus d’impact à son travail en créant sa propre startup avec trois étudiants de Carnegie Mellon : Vivisimo, spécialisée dans le text mining. Cette startup sera acquise par IBM en 2012.

Au sein de l’entreprise américaine, Jérome Pesenti dirige une équipe de 300 chercheurs et ingénieurs logiciels au sein de la division IBM Watson. Cette équipe est en charge de créer la plateforme IBM Watson, regroupant différents services IA pouvant être exploités par tout un chacun via le Cloud.

En 2013, il crée une organisation non lucrative dans le domaine du Big Data : Pittsburgh DataWorks, dont le but est d’ouvrir l’accès au Big Data pour la ville de Pittsburgh. Trois ans plus tard, il occupera le poste de CEO de BenevolentTech, la branche technologique de l’entreprise BenevolentAI qui analyse les publications scientifiques grâce au Deep Learning pour faire avancer la recherche.

C’est toutefois en janvier 2018 que Jérome Pesenti est devenu une figure de proue de l’intelligence artificielle à l’échelle mondiale, en étant nommé directeur de l’équipe IA chez Facebook. Son rôle au sein de la firme de Mark Zuckerberg : diriger la recherche et rendre les produits Facebook plus sûrs et plus intéressants grâce à l’IA. Il tient à la fois les rênes du laboratoire FAIR dédié à l’IA, et celles du projet AML orienté vers le Machine Learning.

À ses yeux, les récents progrès effectués dans le domaine de l’intelligence artificielle ouvrent de nouvelles perspectives. Par exemple, la combinaison entre les technologies de traitement naturel du langage, de reconnaissance visuelle ou de reconnaissance vocale permet à l’IA d’atteindre  » un nouveau niveau «  et donc de s’étendre à davantage de cas d’usage.

Contrairement à d’autres experts, Jérome Pesenti considère qu’il n’y a pas réellement à s’inquiéter quant aux conséquences de l’IA sur notre avenir. Selon lui,  » l’intelligence artificielle sera le partenaire de l’homme et l’aidera à améliorer sa performance  » sans pour autant le remplacer. Dans un Facebook Live, il avait ainsi critiqué Elon Musk et ses propos alarmistes à l’égard de l’IA en estimant que de telles prises de position sont  » négatives et irresponsables « . Il estime au contraire que cette technologie nouvelle va permettre de  » créer des choses et de rendre le monde meilleur «  et que ce sont ces opportunités qu’il convient de mettre en lumière…

Jean-Philippe Desbiolles, vice-président d’IBM Watson

Vice-président de la division d’IBM dédié à l’intelligence artificielle, IBM Watson Group, Jean-Philippe Desbiolles est parfois surnommé le  » French Doctor Watson « . Acteur majeur de l’industrie de l’IA, il a notamment contribué à certains des plus gros projets cognitifs dans les domaines des banques, des assurances ou des télécoms.

En France, il a contribué à la rédaction du rapport de synthèse France Intelligence Artificielle du ministère de l’Economie. Il a également réalisé des rapports sur l’impact de l’IA sur le travail pour le Conseil de coopération économique de la Commission européenne.

Fortement engagé dans le transfert de compétences et la création de talents en France, il est aussi conférencier et membre de comités pédagogiques à Paris-Dauphine et à l’école des Mines de Paris. En août 2019, son livre  » L’IA sera ce que tu en feras – Les 10 règles d’or de l’intelligence artificielle «  est paru aux éditions Dunod.

Dans cet ouvrage, il pourfend les stéréotypes sur l’IA et cherche à démystifier cette technologie dont on parle tant. En se basant sur son expérience et sur des exemples concrets, il prouve que l’IA n’est ni la technologie ni surpuissante qui va nous éradiquer, ni une grande supercherie que certains cherchent à dénoncer. À ses yeux, les performances et l’impact de l’IA dépendent de son utilisation…

Patrice Simard, chercheur chez Microsoft Research

Diplômé d’un doctorat en informatique à l’université de Rochester en 1991, Patrice Simard fait partie de la vague des pionniers français de l’intelligence artificielle. Durant ses études aux États-Unis, il a côtoyé d’autres grands noms de l’IA tels que Yann LeCun et Léon Bottou qui oeuvrent désormais pour Facebook ou encore le polytechnicien Patrick Haffner.

Il a ensuite débuté sa carrière au sein des fameux AT&T Bell Labs où le Deep Learning a beaucoup évolué. C’est en 1998 qu’il rejoint Microsoft Research. En 2004, il sera le premier à breveter des réseaux de neurones sur GPU permettant de repousser les limites de l’intelligence artificielle.

En 2006, il occupe le poste de Chief Scientist et General Manager du Live Labs Research et celui de Chief Scientist du Microsoft AdCenter. C’est en 2012 qu’il retourne chez Microsoft Research pour créer le groupe Computer-Human Interactive Learning (CHIL). Désormais, il dirige le Machine Teaching Innovation Group au sein de la division Experience and Devices de la firme de Redmond.

En tant qu’ingénieur de renom dans le domaine de l’IA, Patrice Simard est sans cesse à la recherche de nouvelles façons de combiner la science et l’ingénierie dans le domaine du Machine Learning. Son principal objectif ? Trouver un moyen de rendre cette technologie accessible à tous.

Pour ce faire, il cherche notamment à transformer la façon dont l’intelligence artificielle est entraînée. Plutôt que d’utiliser de vastes quantités de données étiquetées, son idée est de charger des enseignants humains d’apprendre aux machines comme ils le font pour les enfants.

À ses yeux, la capacité des humains à décomposer et à expliquer concepts peut permettre de rendre l’entraînement des IA plus efficace et moins cher. De plus, en rendant les interactions entre homme et machines plus intuitives, il sera possible de permettre à n’importe qui d’entraîner des IA pour exploiter cette technologie dans son domaine…

Laurence Devilliers : machines, éthique et émotions

Née le 8 octobre 1962 à Châtillon-sur-Seine, Laurence Devilliers est professeure en intelligence artificielle à l’Université Paris-Sorbonne et chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (Limsi) du CNRS. Ses recherches sont focalisées sur les interactions homme-machine, et plus précisément sur la détection des émotions, le dialogue oral et la robotique affective et interactive.

Elle s’intéresse en effet à la capacité des machines à détecter, voire à comprendre nos émotions et notre affect. Une faculté qui, en réalité, leur fait cruellement défaut à l’heure actuelle.

Si les robots sont capables de détecter certaines caractéristiques liées aux émotions à partir de signaux expressifs, ils n’en sont capables que grâce à des exemples fournis pendant leur apprentissage. Or, ces exemples ne correspondent pas forcément à l’émotion ressentie par leur interlocuteur. Et pour cause : les émotions humaines sont souvent nuancées, entremêlées…

Tant que les machines sont incapables de comprendre le contexte, de cerner les différences socio-culturelles entre les individus, elles ne pourront pas réellement détecter nos émotions. Le but de Laurence Devilliers est d’améliorer ce point.

Pour ce faire, elle a créé notamment un système d’évaluation des émotions à partir de multiples facteurs paralinguistiques tels que le timbre de la voix ou l’énergie du discours. Elle cherche également à leur conférer une perception multimodale pour leur permettre de mieux déceler les faits et gestes liés à l’affect…

Cette experte se préoccupe aussi de la problématique de l’éthique dans le domaine de l’intelligence artificielle. Depuis 2015, elle est membre de la CERNA : la commission de réflexion sur l’Ethique de la recherche en science et technologie du numérique d’Allistène.

Elle a participé à la rédaction du rapport sur l’éthique de la recherche en robotique, et a dirigé celui sur l’éthique de la recherche en apprentissage machine et celui sur l’éthique de la recherche sur les agents conversationnels. À ses yeux, il est primordial que l’éthique fasse figure de priorité lors du développement des intelligences artificielles et que ces dernières ne soient pas utilisées à des fins de manipulation…

Timo Roman, l’homme qui donne des yeux aux voitures

Ingénieur en systèmes de communication franco-finlandais, doctorant en traitement statistique du signal, Timo Roman a longtemps oeuvré dans la recherche en téléphonie 4G. Il a notamment travaillé pour le géant finlandais du secteur, Nokia.

Depuis 2015, toutefois, ce passionné de nouvelles technologies a choisi de se lancer dans le Deep Learning à travers l’industrie naissante des véhicules autonomes. Il dirige aujourd’hui l’équipe de Deep Learning Applied Research de NVIDIA Helsinki.

Son rôle ? Entraîner les réseaux de neurones artificiels à détecter les objets et obstacles sur la route sur les flux vidéo des caméras embarquées par les voitures autonomes. L’objectif est de développer une plateforme pour tous les constructeurs, afin d’accélérer le développement de l’industrie et le déploiement des voitures sans pilote sur les routes. En d’autres termes, Timo Roman a pour mission de donner des yeux à nos véhicules

François Pachet, directeur du Spotify Creator Technology Lab

Est-il possible de laisser une IA composer de la musique ? C’est en tous cas le défi que François Pachet veut relever. Diplômé de l’Ecole nationale des Ponts et Chaussées, guitariste passionné, cet ingénieur a travaillé pour Sony durant 20 ans en tant que directeur du Sony Computer Science Lab. Il a notamment contribué à l’amélioration des playslists aléatoires, à l’automatisation de la classification des chansons, ou encore à l’essor des recommandations personnalisées.

Durant 5 ans, il a dirigé le projet Flow Machines subventionné à hauteur de deux millions d’euros par l’European Research Council. Ce projet visait à créer de la musique à partir d’algorithmes capables de modéliser les styles musicaux. En février 2018, l’expérience a abouti sur le lancement de l’album  » Hello World «  sur lequel une dizaine d’artistes ont collaboré avec l’IA…

Depuis 2017, il dirige le Spotify Creator Technology Research Lab basé à Paris. Au sein de ce laboratoire, il développe une nouvelle génération d’outils basés sur l’IA pour les musiciens. Cependant, Spotify, le géant suédois du streaming, tient à maintenir le secret le plus total sur ses projets pour éviter que la concurrence s’en empare.

On peut toutefois supposer que l’objectif de la firme est de laisser les algorithmes créer de nouvelles musiques. Ceci permet d’éviter d’avoir à partager ses gains avec les artistes, et pourquoi pas de créer des morceaux personnalisés en temps réel pour chaque utilisateur en fonction de leur humeur ou de son activité… en bref, l’intelligence artificielle offre de nombreuses possibilités pour le futur de la musique.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend