Suite au succès retentissant du World AI Festival de Cannes, événement phare dans le domaine de l’intelligence artificielle, LeBigData vous propose une série d’interviews des différentes entreprises ayant participé. Cette semaine, découvrez notre entretien avec David Sebaoun d’IBM Consulting !
Qu’avez-vous retenu du World AI Festival de Cannes ? Qu’est-ce qui vous a marqué lors de cet événement ?
D’abord, ce qui m’a marqué, c’est le nombre d’opportunités offertes par l’IA générative. Nous avons parlé de cas d’usage très prometteurs, notamment dans la session que j’ai réalisée autour de l’expérience client.
J’y ai évoqué des gains pour le service client, la productivité, et la satisfaction client pour les entreprises qui utilisent l’IA générative.
Par exemple, certaines entreprises l’ont utilisé dans leurs Contact Centers et leurs services client, et on voit des gains de plus de 20 points de NPS, donc de satisfaction.
On voit aussi des cas d’usage très intéressants sur les différentes fonctions transverses de l’entreprise comme la RH, la finance ou le marketing, avec un gain de productivité allant jusqu’à 40%.
L’autre point que j’ai trouvé captivant, c’est qu’on commence à voir des entreprises utilisant l’IA générative pour la création de produits et de services avec là encore des gains considérables.
On voit par exemple des organisations qui travaillent sur des modèles d’IA pour la génération de molécules, dans la chimie, pour créer de nouveaux parfums ou des cosmétiques.
Si les premiers cas d’usage étaient focalisés sur l’expérience client, puis sur les fonctions transverses, on voit désormais un réel impact sur le core business.
Ce qui m’a marqué, c’est aussi l’accélération du rythme de l’innovation technologique. Et force est de constater que cette tendance s’est poursuivie depuis le salon : de nouveaux modèles d’IA sortent quasiment toutes les semaines.
Ceci encourage à adopter une approche de plateforme permettant d’accéder à différents types de modèles, plutôt que de centrer toute une stratégie uniquement sur un modèle. On sait que la semaine d’après, il y en aura des plus efficaces et pertinents.
Se doter d’une plateforme d’entreprise permet de passer à l’échelle, d’industrialiser et d’accéder à différentes typologies de modèles d’IA générative ou traditionnelle.
Par ailleurs, au-delà des outils grand public comme ChatGPT, les entreprises ont besoin d’une approche prenant en compte les éléments de sécurité, de contrôle, de confiance, de gouvernance.
La notion d’IA englobe les risques de fuite de données et exposent la propriété intellectuelle, la transparence des données utilisées pour l’entraînement, ou encore l’efficacité énergétique. Une entreprise doit prendre en compte tous ces enjeux. Voilà les points principaux que j’ai retenus sur le salon.
En quoi cet événement a-t-il été un succès pour IBM, et pourquoi le recommanderiez-vous aux professionnels et aux entreprises de l’IA ?
J’ai trouvé que c’était un événement extrêmement intéressant, car il nous a permis de voir les grandes tendances de l’IA, de participer à différentes sessions, démonstrations et tables rondes.
C’est donc un formidable lieu d’échange entre professionnels de l’IA. Dans la plénière que j’ai animée, par exemple, nous avons partagé la façon dont IBM utilise l’IA pour nos propres usages en interne.
Et dont moi-même, faisant partie du consulting, j’utilise l’IA pour accompagner mes clients pour la mise en œuvre de programmes d’IA à travers une palette d’assets et d’outils appelés « IBM Consulting Advantage« .
Je pense que ce partage d’expériences est intéressant dans la mesure où les clients, les entreprises de conseil, les éditeurs et autres professionnels de l’IA parviennent peu à peu à s’imprégner de ce que font les autres.
Ce qui est intéressant, c’est aussi de voir les différences de maturité entre les entreprises qui viennent sur ce salon dans l’adoption de l’IA générative.
On voit des entreprises qui sont encore au stade d’acculturation, venues pour essayer de comprendre les opportunités que peut leur apporter cette technologie.
D’autres vont déjà démarrer sur les premiers cas d’usage que l’on voit pour la plupart se concentrer sur la relation client et les fonctions RH.
Et puis, on voit aussi celles qui sont sur une approche très disruptive, qui veulent réinventer leur business model, leurs produits, leurs services à partir de l’IA générative. Je pense que ces partages sont très enrichissants.
Au-delà du salon, quelles sont à vos yeux les tendances émergentes les plus excitantes dans le domaine de l’IA ? Et quelles sont celles que vous anticipez pour les prochaines années ?
Ce que je trouve assez intéressant quand on regarde l’IA générative, c’est qu’il y a une prise de conscience qui se fait de plus en plus, mais qu’on voit aussi le bon côté des choses.
L’étendue des cas d’usage et des possibilités est assez impressionnante. Vous pouvez avoir une réponse à n’importe quelle question, choisir dans quel langage, dans quel style de parole.
On voit aussi à quel point on a réussi à construire des cas d’usage de l’IA générative de plus en plus spécialisés dans le monde de l’entreprise et dans les diverses industries.
Si l’on regarde par exemple le monde de la banque, on observe des cas d’usage autour de la personnalisation de l’expérience client, de la conformité, de la gestion des risques ou des opérations, de plus en plus ciblés et pertinents.
En revanche, le revers de la médaille est que l’IA générative a un coût de plus en plus important pour se construire. Et la croissance du coût d’entraînement des modèles se fait à un rythme qui n’est pas durable.
Entre les premiers modèles et les plus récents, les coûts d’entraînement explosent exponentiellement. De plus, les ressources nécessaires pour continuer à créer des modèles toujours plus larges et puissants vont dépasser ce qui peut être disponible en termes de production énergétique mondiale.
Un autre aspect négatif est que l’IA générative provoque des fuites importantes de données, pirate des livres ou vole la propriété intellectuelle. Il faut donc qu’on arrive d’une certaine manière à protéger le savoir humain.
On voit aussi des modèles qui ne sont pas contrôlés, et peuvent dire des choses qui ne sont absolument pas éthiques. Ils sont biaisés et peuvent être discriminants, racistes, haineux, toxiques. C’est aussi un enjeu à traiter.
Par ailleurs, puisque ces modèles doivent être toujours plus puissants, ils doivent être entraînés avec de plus en plus de données, et des grands éditeurs utilisent de la main-d’œuvre pas chère d’une manière peu éthique pour y parvenir.
Il y a donc plusieurs problèmes importants qu’il va falloir résoudre. La question qui se pose est : comment faire, et quelles sont les choses qu’on va voir arriver sur le marché ?
Pouvez-vous y répondre ?
Premièrement, il va falloir adopter une approche très différente des types de données qu’on utilise pour entraîner les modèles IA. Et plutôt que d’utiliser le maximum de données, ce qui sera de moins en moins efficace, il va falloir cibler les typologies de données que l’on veut utiliser.
Chez IBM, nous travaillons beaucoup sur cette notion de filtrage, de curation de la donnée. On travaille aussi sur ce qu’on appelle une « data pile » : un jeu de données minimal nettoyées, largement suffisant pour avoir des modèles performants.
Le deuxième point à noter, c’est que les modèles d’IA génératives génèrent eux-mêmes des données. De fait, les données présentes sur le web ne sont plus uniquement produites par l’humain.
Ces données synthétiques prennent de plus en plus de place dans l’ensemble des données disponibles, et ça pose forcément un certain nombre de questions.
Les données utilisées pour entraîner les modèles ne seront plus uniquement produites par l’humain, mais avec de plus en plus de données produites par d’autres modèles.
Les analyses prédisent qu’à l’horizon 2030, les données synthétiques seront plus importantes sur le web que les données réelles créées.
Nous sommes en fait la dernière génération à pouvoir utiliser des données humaines pour entraîner des modèles IA.
Les chercheurs d’IBM Research ont publié un article intitulé LaBRADOR expliquant qu’on va devoir travailler différemment dans une approche d’alignement des modèles. À l’avenir, de gros modèles « professeurs » vont générer des données spécialisées pour entraîner des modèles spécialisés.
Plutôt que la notion de données, c’est la notion de compétences qui émerge. On va créer des compétences, et à partir de ces compétences, les modèles vont générer des données synthétiques qui vont servir à entraîner des petits modèles plus spécialisés, donc plus efficaces, performants et fiables avec un contenu moins discriminant et moins biaisé.
En résumé, il faut à la fois réduire le volume de données utilisé pour entraîner les modèles pour qu’ils soient plus sûrs et moins consommateurs, et utiliser une approche d’instruction et d’alignement pour générer des données spécialisées et entraîner plein de petits modèles. C’est de cette manière qu’on voit évoluer l’IA générative.
Le hardware joue aussi un rôle très important dans cette révolution IA. Pouvez-nous en dire plus sur les puces IBM, notamment la façon dont elles s’inspirent du fonctionnement du cerveau humain ? Et comment vous distinguez-vous des autres fabricants tels que Nvidia ?
Il y a effectivement une forte dépendance des entreprises aux GPU. Chez IBM, nous nous focalisons sur deux aspects.
D’abord, dans les plateformes que mettons en œuvre et déployons chez nos clients, nous travaillons sur l’optimisation d’utilisation du hardware et des GPU. Nos méthodologies d’optimisation permettent de réduire l’utilisation de GPU.
Concernant le hardware, IBM Research est en train de développer des puces appelées AIU ou AI Units. Comme vous l’avez dit, elles seront basées sur la façon dont le cerveau humain fonctionne pour être beaucoup plus léger sur la gestion de l’inférence des modèles.
Pour expliquer cela de façon imagée, imaginez par exemple une photo du tableau de Mona Lisa. Même si la photo est floue, vous arrivez à le reconnaître et à affirmer avec 100% d’exactitude que c’est La Joconde.
Ce qu’il va se passer, c’est qu’on va réduire la précision sans que cela soit au détriment de l’exactitude. Ceci permet de réduire énormément les coûts, et de travailler sur du hardware beaucoup plus efficace.
On parle de plus en plus la réglementation du domaine de l’IA, notamment avec l’adoption de l’AI Act par l’Union européenne. Quel impact pour les entreprises ?
Chez IBM, nous avons une grande expérience en mise en œuvre de gouvernance organisationnelle et technologique autour de l’IA. Ceci nous permet de comprendre et d’adresser les réglementations qui évoluent.
Notre Chief Privacy Officer et Chief Trust Officer, Christina Montgomery, a été très active depuis de nombreuses années pour mettre en place une gouvernance, des outils, et interagir avec les régulateurs pour déterminer comment les points clés de la réglementation peuvent être traduits en solutions implémentables.
Nous avons donc construit une baseline : un ensemble d’exigences issues de ce que nous avons analysé et des meilleures pratiques au sein des industries.
Nous l’avons mis en place chez nous, et nous accompagnons nos clients pour le faire avec des programmes de gouvernance intégrée qui permettent de vraiment passer l’IA à l’échelle tout en maîtrisant la conformité.
Ils permettent aussi de s’assurer que l’IA qu’on déploie dans l’entreprise respecte un certain nombre de règles et d’exigences que l’on se fixe.
Par exemple, IBM a mis en place un Ethics Board qui vise à distiller la culture d’IA de confiance sur l’ensemble des lignes métiers et fait office d’organe de décision sur la façon dont les technologies de l’IA doivent être utilisées dans l’entreprise.
Nous avons aussi une approche appelée Ethics by Design dans nos projets, afin d’adresser ces sujets d’éthique et de conformité dès le début et tout au long du cycle de vie des nos projets d’IA.
Ce sont des choses que nous intégrons dans notre plateforme watsonx.gouvernance pour aider nos clients à se conformer plus rapidement et plus facilement.
De même, IBM Consulting accompagne les clients pour définir les grands programmes de gouvernance, définir des chartes éthiques à mettre en place et les opérationnaliser dans les projets d’IA au quotidien.
IBM travaille aussi beaucoup sur l’informatique quantique. Pouvez-vous me dire de quelle manière cette technologie est liée à l’IA, et comment elles vont interagir à l’avenir ?
Les annonces et papiers de recherche publiés récemment montrent que le rythme d’évolution du hardware sur le quantique va permettre de produire des résultats beaucoup plus rapidement que ce qu’on pouvait penser avant.
L’informatique quantique est donc déjà une réalité, et la roadmap montre que la technologie fonctionne. Par ailleurs, on voit la notion d’architecture hybride et d’architecture hétérogène qui vont être basées sur trois pôles.
Un pôle autour de l’informatique traditionnelle et des données traditionnelles qu’on appelle les bits, basé sur les grands systèmes, CPU et semi-conducteurs.
Un deuxième pôle autour de l’IA qu’on appelle les neurones, basé à la fois sur des infrastructures cloud, des infrastructures de type GPU et sur les nouvelles puces dont je vous ai parlé.
Et un troisième pôle, le pôle quantique, les qubits, basé à la fois sur le hardware quantique et la plateforme avec Qiskit qui va permettre de développer des algorithmes quantiques.
L’idée est que ces trois pôles, dans l’avenir des systèmes technologiques, ne vont pas se remplacer l’un et l’autre, mais travailler ensemble dans une approche d’hétérogénéisation.
Tout cela va être orchestré par des plateformes hybrides qui vont permettre, en fonction des cas d’usage, de travailler avec différents types de technologies.
Par ailleurs, quand on regarde ce qui se passe sur les algorithmes quantiques, on voit différents cas d’usage autour de la chimie, des matériaux, du Quantum Machine Learning ou de l’optimisation.
Nous prenons réellement conscience de la nécessité d’imbrication entre les méthodes quantiques et classique, c’est à dire autour des algorithmes quantiques et du machine learning à utiliser à chaque étape de la résolution du problème.
Il y a donc une vraie prise de conscience sur le fait que ce n’est pas le quantique seul qui va tout disrupter, ni l’IA seule, mais l’imbrication entre l’IA et le quantique. Et le pôle de l’informatique traditionnelle et des bits a lui aussi un rôle à jouer.
On se rend aussi compte qu’il va falloir adopter une approche beaucoup plus expérimentale, heuristique, basée sur des données réelles. Tout suggère que le quantique, l’informatique classique et l’IA vont travailler ensemble dans un mode hybride et le futur des plateformes sera autour de ces trois pôles.
Nous avons beaucoup de lecteurs inquiets concernant le remplacement du travail humain par l’IA. Quelles sont les compétences clés que vous recommandez d’acquérir pour travailler dans l’IA ou les nouveaux métiers que cette technologie va faire apparaître ?
Chez IBM, nous avons un certain nombre de principes éthiques autour de l’IA. Le premier est que l’IA n’est pas là pour remplacer l’humain, mais pour l’augmenter. C’est ainsi que l’on travaille sur nos différents projets.
En revanche, nous avons la conviction que les collaborateurs qui utilisent l’IA vont remplacer ceux qui ne l’utilisent pas. Il y a un vrai besoin d’adopter l’IA à l’échelle, et de s’approprier les nouvelles façons de travailler.
Il y a donc un travail de formation à faire autour des usages de cette technologie. Toutefois, cela ne change pas fondamentalement les compétences.
Bien sûr, il va falloir adopter de nouveaux outils, mais il va surtout falloir comprendre et prendre conscience qu’il faut travailler différemment.
Notre approche est donc d’accompagner les différents métiers pour utiliser l’IA. Par exemple, dans le consulting, nous adoptons souvent une approche « design thinking » de mise de l’utilisateur au centre des réflexions. Nous faisons travailler en collaboration l’humain et l’IA pour apporter plus rapidement de la valeur tout en gardant une supervision par l’humain.
De même, au cœur des squads qui travaillent sur des projets de transformation d’une expérience client, là où on avait à l’époque des équipes pluridisciplinaires avec des consultants, des architectes, des designers et des développeurs, on ajoute l’IA générative comme membre à part entière de l’équipe.
On travaille beaucoup là-dessus en développant ce qu’on appelle les IBM assistants, qui vont nous accompagner au quotidien sur les différentes tâches et missions.
Cette collaboration entre l’humain et l’IA va nous permettre d’accélérer, de générer du contenu, et d’obtenir de nombreux bénéfices.
Notre conseil est donc d’être d’un côté plus productif, d’être dans une approche de collaboration avec l’IA pour être plus efficace et plus ciblé dans la façon dont on travaille. Mais je le répète : notre idée n’est en aucun cas de remplacer l’humain par l’IA.
- Partager l'article :