Cette startup IA de Paris s’impose comme la championne d’Europe de l’intelligence artificielle. Sa valorisation avoisinerait les deux milliards d’euros.
Mistral AI annonce avoir conclu lundi une deuxième levée de fonds à hauteur de 385 millions d’euros. Cette startup IA basée à Paris – présentée comme le fleuron européen dans la course à l’intelligence artificielle – lance Mixtral 8x7B.
Une startup française face à l’hégémonie américaine
Jusqu’à maintenant, la course à l’intelligence artificielle semble davantage être une compétition américaine. En effet, les entreprises qui parviennent vraiment à se démarquer se trouvent toutes aux États-Unis.
Il y a parmi celles-ci OpenAI avec son incontournable IA générative ChatGPT. Les analystes considèrent la compagnie de San Francisco comme la référence mondiale en termes de développement de l’intelligence artificielle.
Mistral AI est ainsi cette startup IA de Paris qui veut jouer dans la cour des grands, dominée par les Américains. Trois hommes se trouvent derrière ce projet entièrement français : Arthur Mensch, Timothée Lacroix et Guillaume Lample. Le premier est un ancien de DeepMind, le laboratoire de Google dédié à l’intelligence artificielle. Les deux autres ont travaillé chez Meta.
Près de deux milliards d’euros de valorisation pour Mistral AI
En seulement quelques mois, la startup parisienne s’est imposée comme un cador de l’industrie de l’intelligence artificielle. Elle vient de récolter 385 millions d’euros à l’issue de sa deuxième levée de fonds depuis son lancement en mai dernier.
Rappelons que Mistral AI avait obtenu plus de 100 millions d’euros en juin dernier dans une première levée de fonds. Pour l’heure, on peut dire que la startup a la confiance des investisseurs. Celle-ci n’a jamais communiqué sur sa valorisation, mais une source proche du dossier a indiqué que l’entreprise vaudrait dans les deux milliards d’euros.
Les chiffres impressionnent. Ils montrent clairement que la startup parisienne n’est pas là pour faire de la figuration. Celle-ci prouve cela en lançant un nouveau grand modèle de langage, son deuxième depuis sa création. Nommé Mixtral 8x7B, ce modèle rivalise avec GPT-4 d’OpenAI.
Des raisons pour OpenAI de craindre cette jeune startup IA de Paris ?
Les développeurs de Mixtral 8x7B décrivent leur solution comme le « modèle à poids ouvert le plus puissant avec une licence permissive ». Celle-ci est téléchargeable via torrent – grâce au lien magnet affiché dans la publication sur X ci-dessous – et disponible en libre accès. Il faut prévoir au moins 87 Go de stockage libre sur son ordinateur.
En termes de performances, Mixtral 8x7B prend en charge un contexte de 32 000 tokens. Rappelons que plus cette capacité est élevée, plus le modèle est performant. Par ailleurs, son entraînement s’est fait à partir de données en libre accès sur Internet. Le modèle intègre ainsi un total de 45 milliards de paramètres, dont 12 milliards utilisés par tokens.
Bien que le nouveau grand modèle de langage de Mistral AI présente des capacités impressionnantes, il est important de souligner que ces dernières sont seulement supérieures à celles de GPT-3.5 d’OpenAI. Rappelons que ce modèle date de novembre 2022. Par ailleurs, l’entreprise américaine a lancé, cette année, deux nouveaux modèles.
GPT-4 est arrivé au printemps, tandis que GPT-4 Turbo a débarqué à l’automne. Mixtral 8x7B peut sans doute tenir la route face au premier. En revanche, la solution de la startup parisienne est inférieure à GPT-4 Turbo.
- Partager l'article :