Les impacts et les perspectives de l’IA : interview avec Jérôme Malzac, Directeur de l’innovation chez Micropole

L’IA ne cesse d’évoluer à vitesse grand V. Jérôme Malzac nous partage son avis et revient sur les stratégies d’ et ses concurrents. 

En préambule, pouvez-vous vous présenter et présenter Micropole ?

Micropole est une société de conseil spécialisée dans la transformation des entreprises par la Data. Notre mission est d’aider nos clients à prendre un temps d’avance en exploitant tout le potentiel de la Data pour avoir un impact business positif, grâce à l’innovation, qu’elle soit technologique, de process ou de méthode. Ce qui nous rend uniques, c’est notre capacité à allier stratégie et technologie, en accompagnant nos clients à chaque étape de leurs projets. Au-delà du conseil, nous nous engageons également à soutenir l’implémentation technique. Nous garantissons ainsi la réalisation concrète des ambitions de nos partenaires. Avec plus de 1300 collaborateurs répartis dans 14 agences, nous avons su établir une présence solide en France et à l’international, notamment au Belux, en Suisse, en Espagne et en Chine. Notre approche est particulièrement axée sur l’innovation continue, ce qui nous permet de rester à la pointe des dernières technologies et de répondre aux besoins évolutifs du marché.

En tant que responsable de l’Innovation, ma mission consiste à rester à l’affût des tendances technologiques émergentes et à identifier les solutions et startups qui pourraient transformer notre approche. Cela va au-delà de la simple veille : je m’engage à intégrer ces innovations au sein de Micropole, en veillant à ce que nos collaborateurs soient formés et équipés pour les utiliser efficacement. Un aspect clé de mon rôle est de créer un environnement où l’expérimentation est valorisée. Nous devons tester et valider ces technologies avant de les industrialiser et de les proposer à nos clients. Cela nous permet non seulement de garantir leur fiabilité, mais aussi de personnaliser les solutions en fonction des besoins spécifiques de chaque client. En fin de compte, notre objectif est de devenir un véritable catalyseur d’innovation, tant pour nos équipes que pour nos partenaires.

Pouvez-vous nous donner un aperçu de l’évolution de l’IA dans les prochaines années et quels sont les objectifs de Micropole dans ce domaine ?

Au cours des cinq dernières années, nous avons observé une évolution significative des thèmes d’innovation chez Micropole. Il y a quelques années, les solutions immersives, comme la réalité virtuelle et augmentée, étaient au cœur de nos préoccupations. Mais depuis 2 ans; l’IA générative est sur le devant de la scène, transformant notre façon de penser les projets. Bien que l’IA ne soit pas un concept nouveau, son adoption massive et son intégration dans des solutions concrètes ont redéfini nos priorités. Aujourd’hui, nous concentrons nos efforts sur des projets qui visent non seulement à améliorer la productivité, mais aussi à optimiser l’efficacité opérationnelle de nos clients. Cette tendance met en lumière notre capacité à anticiper les besoins du marché et à proposer des solutions qui répondent aux enjeux contemporains, tout en restant agiles face aux évolutions rapides de la technologie.

Ce qui est fascinant avec cette accélération, c’est qu’on ne parle plus simplement d’améliorations incrémentales. L’IA générative, par exemple, n’est plus uniquement le domaine de grands acteurs comme OpenAI ou . Aujourd’hui, on observe foisonnement d’initiatives open source qui démocratisent des outils de pointe. Cela permet non seulement à de plus petits acteurs de rivaliser sur des segments spécifiques, mais aussi à des industries entières de réinventer leur manière de travailler. Le cadre traditionnel de la R&D est bouleversé : l’innovation se déroule à une échelle collaborative inédite, et ce phénomène est en grande partie alimenté par l’utilisation d’une quantité de données phénoménale, un travail commun inhabituel entre différents acteurs, le tout favorisé par des financements colossaux.

Un aspect clé de cette révolution, c’est l’intensification des collaborations. Les barrières qui séparaient auparavant les labos académiques, les startups et les grands groupes s’effacent. Aujourd’hui, on voit une véritable hybridation des compétences. Les chercheurs bénéficient des moyens financiers des grandes entreprises, tandis que les startups, elles, apportent une agilité que les grands groupes ne peuvent pas toujours se permettre. Cela a permis une démocratisation des technologies de l’IA : des outils qui étaient autrefois réservés à des spécialistes sont maintenant disponibles à un public beaucoup plus large. Résultat, l’interaction homme-machine devient de plus en plus naturelle, intégrée dans les usages quotidiens.

Pour l’avenir de l’IA générative, je vois deux grandes tendances émerger. Tout d’abord le sujet d’IA frugale, nous allons assister à une spécialisation des modèles de langage. Les modèles actuels, qui sont déjà considérables en termes de taille et de besoin en puissance de calcul, vont devenir de plus en plus exigeants. Cela va créer un besoin pressant de réévaluation de nos approches. Il devient urgent et nécessaire, je pense, de glisser vers des modèles plus spécialisés, plus petits et plus adaptés à des tâches spécifiques, qui seront moins gourmands en ressources pour être entraînés.

On a déjà commencé à le voir dans certains secteurs, où des solutions sur mesure permettent d’optimiser les performances sans nécessiter les vastes ressources qu’exigent les modèles généralistes. Ces modèles de niche auront la capacité d’apprendre plus rapidement et d’être déployés plus largement, tout en offrant une efficacité accrue. C’est une direction excitante, car cela rendra l’IA générative non seulement plus accessible, mais également plus utile dans des contextes variés et concrets. On peut également imaginer des modèles de langage en edge, embarqués localement sur des devices mobiles ou IoT en s’affranchissant du réseau ou du .  

La seconde tendance concerne notamment la traçabilité des informations que fournit l’IA. Avec l’arrivée de l’IA Act, il sera nécessaire de justifier, contrôler, prouver que l’on comprend, que l’on maîtrise et sait expliquer ce que l’IA génère et comment elle fonctionne. Nous travaillons donc déjà sur les éléments techniques, les architectures et méthodologies nécessaires pour garantir cette “Explicabilité”.

À votre avis, OpenAI peut-elle atteindre une rentabilité durable et si oui comment ?

OpenAI se trouve dans une position singulière. Malgré une valorisation impressionnante qui dépasse les 150 milliards de dollars, l’entreprise fait face à un paradoxe : sa source de revenue est uniquement liée aux licences d’utilisation, elle n’a pas encore de modèle économique solide basé sur du software ou de la publicité, contrairement à des géants comme Google ou qui ont des écosystèmes diversifiés. Le principal défi, c’est donc effectivement sa rentabilité à long terme. Les levées de fonds massives ont permis de soutenir la recherche et l’innovation, mais le modèle de financement par levée de capital ne pourra pas se poursuivre indéfiniment.

OpenAI fait face à un véritable casse-tête financier pour maintenir son rythme d’innovation. Sa dépendance aux levées de fonds externes, comme celle de 10 milliards de dollars récemment, montre bien qu’elle n’a pas encore atteint un modèle d’autosuffisance. L’augmentation des tarifs d’abonnement, qui devraient atteindre 44 euros par mois, est une tentative de combler ce besoin pressant de liquidités. Mais cela suffira-t-il ? Ce qui est intéressant, c’est que ces décisions surviennent alors que la concurrence internationale, notamment chinoise, se renforce. Les coûts opérationnels sont gigantesques, avec un coût d’entraînement estimé à 7 milliards de dollars pour un nouveau modèle, sans parler des coûts en main-d’œuvre. OpenAI doit jongler avec des défis de plus en plus lourds pour maintenir son avance.

Cependant, l’arrivée récente dans la société de Sébastien Bebeck est un signe fort. Après dix ans chez Microsoft, il apporte une expertise dans les modèles plus compacts et économes en ressources, ce qui pourrait marquer un tournant stratégique pour OpenAI. Cela montre qu’ils cherchent à diversifier leurs approches, en envisageant des solutions plus légères et adaptées, tout en gardant à l’esprit les contraintes financières. En recrutant des profils comme Bebeck, OpenAI mise clairement sur une optimisation de ses processus de développement, ce qui pourrait lui permettre de se positionner de manière plus flexible sur un marché où la concurrence se fait de plus en plus rude.

L’ambition scientifique d’OpenAI va donc se heurter à des logiques économiques. À votre avis, quel équilibre faut-il entre les recherches fondamentales et les modèles pour entreprises rentables qu’ils essayent de développer, et surtout, pour répondre à cette logique économique, OpenAI précipite-t-il certains de ses projets ? 

La pression pour rester compétitif est énorme, et cela pourrait conduire OpenAI à accélérer certains lancements de produits, parfois au détriment des tests et de la qualité. On l’a vu avec des innovations comme le dernier modèle o1 ou la fonctionnalité Search, où la vitesse de mise sur le marché est devenue une priorité. Le risque ici, c’est de voir lancés des produits moins aboutis ou plus vulnérables, ce qui pourrait nuire à son image à long terme. Néanmoins, la course à l’innovation impose ce genre de compromis, surtout face à des rivaux qui scrutent chaque mouvement d’OpenAI pour tenter de la dépasser. 

OpenAI reste un leader incontesté, mais il ne faut pas oublier qu’en parallèle, de nombreuses start-ups et laboratoires continuent de développer des solutions spécialisées. C’est fascinant de voir comment cette domination pousse d’autres acteurs à explorer des créneaux de niche, où des modèles plus spécialisés peuvent coexister avec les solutions généralistes d’OpenAI. Cela montre que l’écosystème de l’IA est bien plus vaste qu’un simple affrontement entre titans, et que la recherche spécialisée reste très active.

Comment les géants de la tech peuvent-ils ajuster leurs stratégies pour rester dans la course à l’IA ?

Les grands acteurs comme Google, ou doivent constamment réévaluer leurs positions face à OpenAI. Amazon, par exemple, a choisi de se concentrer davantage sur son rôle de fournisseur de cloud que de rival direct. C’est une stratégie subtile, qui luipermet de profiter des innovations d’autres acteurs comme Anthropic ou , tout en restant dans une posture complémentaire. Ces alliances stratégiques entre géants de la tech ne doivent pas être vues comme de simples partenariats, mais plutôt comme des moyens pour eux de rester dans la course à l’innovation tout en réduisant les risques directs de confrontation. 

Malgré les défis auxquels OpenAI est confrontée, sa stratégie repose toujours sur la collaboration avec des partenaires-clés. C’est fondamental pour garantir la sécurité des données et soutenir le développement continu de ses modèles. Ce qui est intéressant ici, c’est que même en période de tension ou de contraintes financières, les équipes OpenAI ne se détournent pas de ces partenariats. Au contraire, on peut s’attendre à ce qu’ils ré-injectent des ressources dans ces collaborations pour renforcer leur position. En fait, c’est cette synergie avec les entreprises technologiques et les laboratoires qui leur permet de rester à la pointe du secteur.

Là où Google pourrait véritablement changer la donne, c’est en réorientant sa stratégie autour de la recherche sémantique et conversationnelle. Ils ont déjà commencé à travailler sur ces technologies, mais la vraie clé sera d’adapter leur moteur de recherche pour tirer parti de ces nouvelles approches. C’est une nécessité pour maintenir leur compétitivité face à un écosystème d’IA en pleine mutation, mais les derniers événements ne permettent pas de se rassurer sur le sujet. Le modèle reste encore derrière son concurrent principal notamment depuis la sortie de GPT search d’OpenAI, et ce, malgré les investissements de Google dans son projet Jarvis (l’IA qui contrôle votre navigateur).

Anthropic innove également beaucoup ces derniers temps, en particulier avec “Computer Use” et sa promesse de contrôler certaines tâches sur votre ordinateur grâce à l’IA. 

, de son côté, mise sur l’open source, un choix qui pourrait s’avérer stratégique. En ouvrant ses technologies, il s’assure une contribution continue de la communauté, ce qui accélère l’innovation. Ce modèle open source favorise également le développement de modèles spécialisés tout en maintenant son identité propre. On observe  une tendance générale vers des modèles plus petits et plus personnalisés. Meta n’est pas seul dans cette dynamique, mais il semble bien positionné pour en tirer parti, en particulier dans un environnement où l’open source devient un facteur clé d’innovation. 

En conclusion, on assiste à  une structuration du marché autour de trois grands axes. D’abord, des modèles open source impulsés par des entreprises comme Meta, qui profitent de la contribution de la communauté. Ensuite, des modèles généralistes du côté de Google ou Anthropic avec la volonté d’étendre l’IA à votre PC, mais qui doivent encore évoluer vers une recherche plus conversationnelle. Enfin, OpenAI continuera d’innover avec ses solutions d’IA générative et ses cas d’usage, toujours avec une longueur d’avance. Ces trois axes vont façonner l’avenir du marché de l’intelligence artificielle. 

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥