World AI Cannes Festival 2024 | Mikael MOREAU (Communication Manager, Intel France)

Suite au World AI Cannes Festival où était présent, le responsable des relations publiques Mikael Moreau s'est entretenu avec LeBigData pour revenir sur cet événement incontournable et livrer ses prédictions sur le futur de l'IA. Une interview à ne pas manquer si vous vous intéressez à cette nouvelle technologie ! 

LeBigData : Qu'avez-vous retenu du World AI Festival de Cannes ? Qu'est-ce qui vous a marqué lors de cet événement ?

Mikael Moreau : C'est la première fois qu'Intel participait au salon World AI Festival de Cannes. Pour nous, ça a été l'occasion de partager notre stratégie avec l'ensemble des gens présents à travers l'intervention d'execs venus des Etats-Unis.

C'était également l'occasion de démontrer des algorithmes d'IA en action sur notre espace.  De notre point de vue, ça a donc été un événement très réussi. 

On s'est aperçu que beaucoup de monde est venu pendant toutes ces journées pour découvrir, et pour certains expérimenter l'IA pour la toute première fois. 

Notre présence nous a donc permis d'échanger avec toutes ces personnes, et de démontrer comment, chez Intel, on cherche à mettre de l'IA partout de manière à améliorer le quotidien des gens dans le monde professionnel ou personnel. 

Les visiteurs du stand Intel étaient-ils principalement des professionnels, ou est-ce que le grand public vous a aussi rendu visite ?

C'était vraiment un mélange entre le monde professionnel, institutionnel, les partenaires et le grand public (notamment le week-end). 

Sur le stand, ils ont tous pu s'essayer à différents cas d'usage de l'IA. A certaines périodes, on a constaté qu'il y avait une queue assez importante sur notre espace. 

Par exemple, on a utilisé l'IA présente sur notre solution Core Ultra : les tous derniers processeurs Intel pour ordinateurs portables lancés fin 2023 et munis d'un NPU dédié au calcul d'intelligence artificielle. 

Nous avons démontré comment ce NPU permet de transformer une personne qui venait sur le stand en super héros, en la prenant en photo, grâce à l'IA générative. 

La personne pouvait repartir avec cette photo d'elle en super héros, et ça a énormément attiré l'ensemble des visiteurs qui ont pu voir dans cette utilisation le côté ludique de l'intelligence artificielle. 

Ca leur a aussi donné une idée de comment, aujourd'hui, nos solutions d'IA dans le monde du PC peuvent leur permettre de créer ce type de contenu très facilement et rapidement. 

Parmi les autres exemples de qu'on a mis en place sur notre espace, il y avait aussi une démo permettant de faire de la création musicale en se basant sur le logiciel Audacity. 

On prenait la voix d'une personne, on l'isolait, on la changeait, on faisait créer automatiquement du texte qui était repris par la voix en question via le logiciel, et toujours en tournant sur les Core Ultra. Là encore, c'était une manière de démontrer la création artistique assistée par IA. 

En quoi cet événement a-t-il été un succès pour Intel ? Pourquoi le recommanderiez-vous aux professionnels de l'IA et aux entreprises ? 

C'est un succès de plusieurs points de vue. Déjà, comme nous en avons parlé auparavant, au niveau du nombre de personnes qui sont venues sur le salon et avec qui on a pu échanger. Ca, c'est évidemment important. 

Quand on fait un salon, on veut qu'il y ait un maximum de monde de manière à pouvoir réellement démontrer ce que nos solutions sont capables d'amener. 

Le deuxième point, c'est la qualité des différentes interventions et sessions. De notre côté, nous avons pu avoir trois sessions différentes pour parler à travers la voix de Lisa Spelman en charge de la division Xeon (les processeurs Intel pour serveurs).

Elle a pu expliquer la stratégie d'Intel dans le monde du Data Center : apporter des accélérateurs d'IA intégrés au sein de ces processeurs pour permettre d'accélérer la mise en place de solutions d'IA dans les entreprises, sans avoir à investir dans des infrastructures dédiées. 

Nous avons aussi eu une session sur l'IA dans le sport, puisqu'Intel est partenaire officiel des Jeux olympiques de Paris qui auront lieu cette année. C'était l'occasion de présenter les innovations que nous allons mettre en place lors de ces JO. 

Ces interventions d'Intel et des autres entreprises présentes ont permis aux personnes sur place d'avoir une vision globale du marché de l'IA, et de mieux l'appréhender. 

Et c'était évidemment très intéressant pour nous aussi d'échanger avec l'ensemble des partenaires ou des sociétés présentes lors du salon pour montrer ce qu'elles font dans l'IA. 

Je pense que ces trois éléments combinés ont été les clés du succès, notamment pour un événement aussi jeune. Cela nous incite fortement à revenir l'année prochaine. 

Au-delà du salon, dans le domaine de l'IA quelles sont les tendances les plus excitantes que vous voyez émerger actuellement et que que vous anticiper pour les prochaines années ? 

Il y a deux ou trois grandes tendances. La première, c'est l'évolution du marché de l'IA.  Il existe depuis de nombreuses années, mais a pris une importance très forte médiatiquement parlant avec l'IA générative et l'entraînement des modèles. 

Pourtant, cela ne représente qu'une toute partie du marché puisque la très grande majorité est l'inférence : une fois que les modèles sont entraînés, comment les faire tourner, et sur quoi, pour apporter quelque chose de concret aux utilisateurs ? 

Or, ce chemin vers l'inférence est en train de s'accélérer. D'où l'importance d'amener des solutions pour faire de l'IA partout, afin de la faire tourner aussi bien dans le ou à la périphérie, sur un appareil en local sans connexion à internet. Et c'est la stratégie d'Intel. 

Nous faisons des solutions dans le monde du PC, dans celui du serveur, et aussi des accélérateurs pour l'entraînement. Cependant, l'inférence prend vraiment une part grandissante du marché et c'est qui va faire que le marché va se développer. 

Cette première tendance s'accompagne d'une deuxième, qui est le passage vers l'open source. Aujourd'hui, les modèles les plus connus sont principalement des modèles propriétaires. 

Cela implique plusieurs challenges pour les entreprises, notamment d'essayer de comprendre comment les modèles ont été entraînés, avec quel type de données, et comment elles pourraient utiliser ces modèles propriétaires pour intégrer leurs données. 

Aujourd'hui, c'est très compliqué. Et c'est pour ça que l'on assiste à un passage vers l'open source, avec des modèles déjà entraînés et dans lesquels une société va pouvoir apporter sa propre pierre à l'édifice. 

Elle pourrait comprendre comment le modèle a été entraîné, et quelles données ont été utilisées, de manière à l'adapter à ses propres besoins en y ajoutant ses propres données. Et ceci est crucial pour que l'adoption de l'IA se fasse le plus rapidement et largement possible. 

Chez Intel, nous accompagnons ces tendances avec des produits pour l'inférence adaptés aux différents marchés, et avec différentes initiatives pour l'Open Source. 

En avril 2024, nous avons annoncé avec la fondation Linux un effort dans le mise en open source de différents modèles pour que les entreprises puissent s'en emparer. 

Aujourd'hui, typiquement, sur un , le coût de l'inférence est de 40 ou 50 centimes d'euros chaque fois que vous entrez un prompt. Ce n'est vraiment pas donné et on peut rapidement arriver à des explosions en termes de coûts. 

Il est donc important pour les entreprises qu'elles puissent avoir leur propre modèle, en se basant sur un modèle déjà existant, avec peut-être moins de données et moins de paramètres, parce que tout le monde n'a pas forcément besoin de modèles qui en ont des dizaines de milliards. 

Une entreprise peut donc décider de prendre un modèle en open source, et l'adapter pour réduire le nombre de paramètres, mais des résultats plus pertinents et ainsi réduire les coûts liés à l'inférence. 

Quels sont les derniers produits d'Intel en termes de hardware IA ? 

En avril 2024, lors de notre événement Intel Vision, nous avons annoncé Gaudi 3 : la troisième version de l'accélérateur Gaudi pensé pour l'IA. Ce n'est pas une carte graphique, mais un composant qui ne sait faire que de l'IA. 

Dans les différents tests qu'on a pu effectuer sur des modèles tels que Llama 2 ou -3, par rapport à des solutions comme le GPU H100, Gaudi 3 offre un temps d'entraînement 50% plus rapide et un temps d'inférence 40% plus rapide. 

C'est la preuve que le marché évolue très rapidement, en passant de solutions utilisées parce qu'elles sont les plus adaptées à faire tourner des modèles, à des solutions véritablement penséer pour cela et pour apporter le meilleur niveau possible en termes de performances et de consommation électrique. 

Ce dont on parle aussi beaucoup en ce moment, c'est la robotique humanoïde et l'IA générale (AGI). Pensez-vous qu'il y a vraiment un avenir dans cette direction ? Est-ce qu'Intel a déjà des projets dans ce domaine ? 

Évidemment on voit beaucoup de choses en train de se produire, mais ce n'est qu'une fraction du marché de l'IA. Nous, on voit vraiment l'IA comme étant quelque chose qui va être partout, comme je l'ai dit précédemment, mais surtout quelque chose de transparent pour l'utilisateur. 

Les algorithmes ou les modèles IA vont tourner, sans  forcément qu'on se rende compte, en tant qu'utilisateur, qu'il y a un modèle d'IA qui tourne.

La robotique va évidemment bénéficier de cela, et ça va permettre de faire avancer grandement le marché avec des robots capables de mieux s'adapter à l'environnement, d'interagir plus facilement avec les utilisateurs de manière à proposer des cas d'utilisation et des expériences les plus concrètes et pertinentes possibles.

La deuxième question qui se pose, c'est comment aller plus loin que ce que l'on connaît aujourd'hui dans l'IA et comment ça va bénéficier, notamment, au marché de la robotique ?

C'est là qu'entre en scène ce qu'on appelle le domaine du neuromorphique : des solutions IA qui s'inspirent du fonctionnement du cerveau. 

En avril, Intel a d'ailleurs annoncé une plateforme neuromorphique appelée Hala Point qui contient plus de 1,12 milliards de neurones.

L'intérêt du neuromorphique, c'est d'avoir, dans le même composant, les données et la partie compute. Car aujourd'hui, dans l'IA, ce n'est pas le cas.Il faut aller récupérer les données ailleurs, et ça a un coût énergétique et un coût au niveau de la performance. 

En ayant les données et le compute sur le même composant, il devient possible de faire des algorithmes beaucoup plus complexes et d'utiliser des données environnementales liées à l'expérience. Choque qu'on ne peut pas faire aujourd'hui avec l'IA conventionnelle. 

Si l'on prend le monde du robot pour exemple, nous avons déjà fait des démonstrations avec des robots capables d'avoir le sens du toucher grâce au neuromorphique. 

Ils sont capables, en touchant un objet de surface, de reconnaître cet objet grâce au toucher. Et de la même manière, ils sont capables d'analyser les odeurs.

Nous avons fait des essais avec des pompiers, qui ont envoyé un robot en amont d'une intervention pour qu'il puisse analyser les gaz présents et dire s'il y a des dangers ou pas pour les pompiers. 

C'est un exemple typique de cadre dans lequel l'IA neuromorphique va apporter de grandes évolutions dans les prochaines années.

Le Neuromophic Computing permet donc à l'IA de s'inspirer du fonctionnement du cerveau. Pensez-vous qu'elle finira par surpasser l'intelligence humaine ? Et dans combien de temps ? 

C'est une question qu'on se pose très régulièrement, qui est toujours sous-jacente dans les discussions autour de l'IA. De notre point de vue, ça ne sera pas le cas. 

Le neuromorphique imite le fonctionnement du cerveau, mais ne le remplace pas. Notre cerveau est capable de traiter beaucoup plus d'informations, en consommant beaucoup moins d'énergie que la plupart des modèles d'IA. 

Il est aussi capable d'apprendre automatiquement par rapport à l'expérience. Sa puissance de calcul est donc infiniment plus élevée que ce qu'on est capable d'amener avec l'IA.

De fait, tant qu'un humain sera à la base des modèles d'IA, il n'y aura pas de raison pour que celle-ci puisse nous surpasser. 

Elle permet de traiter beaucoup plus de données et de faire un lien entre elles, mais le cerveau humain a une manière de fonctionner totalement différente. 

Vous me parliez de l'une de vos démos IA sur le salon, dans le domaine de la création musicale. Ces derniers temps, on voit apparaître de nouveaux outils tels que Suno ou Udio qui permettent de générer des chansons, que pensez-vous de cette tendance ? Comment l'IA va-t-elle impacter l'art et la créativité ?

L'IA va forcément impacter tous les domaines. On parle beaucoup aujourd'hui de l'art et de la création, puisque l'IA générative est la branche dont on parle le plus. 

Or, elle est très fortement liée à la création d'images, de musique, ou encore de vidéos. Ceci a une incidence très positive sur l'aide offerte aux utilisateurs pour créer du contenu, rechercher des photos, les modifier ou créer de la musique. 

Si la question sous-jacente est : est-ce que cela va faire disparaître certains métiers ? De notre point de vue, ce n'est pas forcément cette manière qu'il faut voir les choses. 

Il s'agit plutôt de se demander comment, aujourd'hui, les créatifs vont pouvoir adapter ou adopter l'IA dans leur manière de créer du contenu et être assisté par l'IA pour créer leur propre contenu ?

Aujourd'hui, les créatifs les plus doués utilisent déjà l'IA pour être encore meilleurs dans leur art. Et puis, il y a les gens comme vous et moi, qui de temps en temps ont créé du contenu. 

Là, l'IA va grandement aider, mais ça ne va pas faire de nous des artistes confirmés ou avec plus de talent qu'on en a à l'heure actuelle. Cela va juste nous permettre d'aller un peu plus loin. 

Plus globalement, pensez-vous que l'IA va bouleverser l'emploi ? Va-t-on vers un remplacement du travail humain ? 

L'IA va transformer différents marchés, c'est certain, mais ça va plus souvent différents secteurs à aller beaucoup plus rapidement. 

Si l'on prend l'exemple d'Intel, quand on crée des processeurs, entre le moment où on fait le plan d'un processeur et le moment où celui-ci est mis en vente, il s'écoule au minimum entre 3 et 5 ans. 

Cela prend donc beaucoup de temps, et durant cette période, il y a beaucoup de tests qui sont effectués notamment pour le débugging et le contrôle qualité. 

Aujourd'hui, nous avons mis en place des outils IA qui nous permettent de grandement réduire le temps alloué à ces tâches répétitives mais nécessaires. 

L'IA va donc permettre de gagner énormément de temps, et laisser les ingénieurs se consacrer aux tâches les plus importantes : comment améliorer les architectures, augmenter le niveau de performance, les fonctionnalités dans nos solutions… 

Nous voyons donc l'IA comme une aide extrêmement importante. Dans certains cas, ça va peut-être remplacer complètement certains métiers, mais globablement, ça permet au contraire d'être beaucoup plus efficace. 

Un domaine qu'on prend souvent en exemple est celui de la santé, avec l'IA qui permet aujourd'hui d'assister les médecins à détecter des cancers. 

Pour cause, grâce aux quantités de données qu'elle est capable de traiter, l'IA permet d'aiguiller le médecin. Elle peut voir certaines choses que l'oeil humain ne peut pas voir. 

Au final, c'est le médecin qui va déterminer si oui ou non la personne a un cancer. Et c'est lui qui va ensuite prendre en charge le patient. 

Dans la grande majorité des cas, l'intelligence artificielle va donc être un assistant dans le quotidien plutôt qu'une technologie qui va supprimer ou remplacer des métiers. 

En tant qu'expert, quelles sont les compétences clés que vous recommanderiez d'acquérir pour travailler dans l'IA ou pour exercer les nouveaux métiers qui vont apparaître ?

J'aimerais parler en particulier des développeurs, dont on distingue deux catégories : ceux qui utilisent l'IA, et ceux qui la développent. 

Pour ceux qui utilisent l'IA, il s'agit d'ingénierie, de construire des briques ou des logiciels autour ou à la base des LLM. C'est donc de la programmation pure, d'application web ou de base de données. 

Dans ce cas, le métier de développeur va rester le même. Ils vont intégrer des briques déjà existantes dans leur logiciel. 

En revanche, si l'on parle de developper de l'IA, il y a un fort besoin de bases théoriques en algorithme, en maths appliquées et en probabilité. C'est très important. 

Une personne qui veut développer un modèle IA se doit d'avoir un background scientifique et mathématique, car il s'agit de statistiques et de probabilités. 

Face à toutes ces innovations qu'on observe, il y a une question que beaucoup de nos lecteurs se posent : quelle sera la place de l'humain dans le monde de demain façonné par l'IA ? 

Comme pour toutes les innovations, il faut que les utilisateurs aient confiance et soient impliqués pour qu'elles soient adoptées. 

Voila pourquoi depuis quelques années maintenant, nous avons publié notre vision de ce qu'on appelle le « Responsible IA » : comment développer l'IA de manière responsable. 

Nous partageons cette vision de façon publique et la mettons régulièrement à jour. Elle met l'humain au centre de toutes les créations et de toutes les innovations liées à l'IA. 

Ceci passe notamment par un prisme de responsabilité éthique pour contrôler les données utilisées, faire en sorte qu'il y ait le moins de biais possible, et que le législateur puisse apporter sa pierre à l'édifice. 

Sans tous ces éléments-là, les utilisateurs seront méfiants et ne voudront pas adopter l'IA ou intégrer les innovations qu'elle apporte. Cette démarche de mettre l'humain au centre de toutes les décisions est la clé…

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *