mistral ia france

Mistral : comment tester l’IA française qui surpasse GPT 3.5 ?

Mistral, la startup française qui joue dans la cour des grands, vient de publier son nouveau LLM Mixtral-8x7B. Découvrez tout ce qu'il faut savoir sur cette IA plus puissante que -3.5 et Llama 2, et comment l'utiliser dès maintenant à la place de !

Nous vous parlions hier de Mistral : une startup française fondée à Paris il y a 6 mois, qui vient de lever 385 millions d'euros en série A et dont la capitalisation atteint désormais 2 milliards de dollars.

Alors que propose cette jeune pousse, que certains qualifient déjà de championne européenne de l'UE et de rivale directe du colosse OpenAI à qui l'on doit ChatGPT ?

Après un premier modèle dénommé Mistral 7B publié en septembre 2023, entraîné sur environ 7 milliards de tokens de paramètres, elle vient de relâcher une nouvelle version.

Une IA publiée en Torrent sur X sans aucune description

Si la plupart des entreprises IA annoncent en fanfare leurs nouveaux algorithmes en organisant des voyages de presse ou via des publications sur leurs blogs, ce n'est pas le cas de Mistral.

À contre-courant, la startup française a relâché son dernier LLM sans aucune explication via un lien Torrent publié sur X sans aucune description.

Cette insolence lui a valu de nombreux compliments, et a inspiré des memes sur le réseau social. Un internaute a notamment commenté : « Pas de blog, pas de description – juste un torrent avec les fichiers du modèle… Mistral comprend que son audience principale est composée d'ingénieurs et connaît leurs zones érogènes culturelles ».

Mixtral-8x7B : l'IA open source qui fait trembler et Google ?

Malgré tout, la firme a finalement publié un billet de blog afin de partager davantage de détails sur son modèle IA : Mixtral-8x7B.

Ce nom fait référence à la technique qu'il utilise : « Mixture of Experts » (mélange d'experts). Il s'agit d'une combinaison de différents modèles, chacun spécialisé dans une catégorie de tâches différente.

Il utilise un réseau routeur pour traiter les tokens d'input et choisir le groupe de paramètres le plus apte à donner une réponse. Cette technique permet d'accroître le nombre de paramètres du modèle tout en contrôlant le coût et la latence.

Pour cause, le modèle n'utilise qu'une fraction de l'ensemble total de paramètres par token. Ainsi, malgré un total de 45 milliards de paramètres, il n'en utilise que 12 milliards par token. La vitesse et le coût sont donc les mêmes que pour un modèle à 12 milliards.

Selon les benchmarks partagés dans l'article, cet algorithme surpasse certains des meilleurs LLM américains dont Meta Llama 2 et OpenAI GPT-3.5 .

Les premiers retours sont également dithyrambiques. De nombreux testeurs sont époustouflés par la vitesse et le côté fun de cette IA.

Un ChatGPT open source… et sans barrières de sécurité

Cerise sur le gâteau : ce modèle est open source, contrairement à ses concurrents. Il s'agit d'une priorité pour Mistral. Il est disponible sous licence 2.0, en téléchargement gratuit.

Selon le CEO, Arthur Mensch, la startup s'engage à poursuivre « une approche ouverte, responsable et décentralisée de la technologie ».

Comme le souligne le spécialiste Ethan Mollick sur X, Mixtral 8X7B n'a pas de « barrières de sécurité ». Comprenez par là qu'il n'y a pas de filtre de censure, et que cette IA peut répondre à toutes les questions sans aucun tabou

Comment essayer les modèles IA Mistral via API ?

Alors que le premier modèle Mistral 7B avait été mis à disposition sous forme de téléchargement gratuit, cette nouvelle version est accessible via une API payante depuis la plateforme développeur de Mistral qui vient d'entrer en phase de beta.

Sur cette plateforme, il sera possible d'accéder à l'API du modèle Mistral 7B (Mistral-tiny), mais aussi à celle du nouveau modèle Mixtral 8x7B (Mistral-small). Un troisième modèle Mistral-medium est également disponible en alpha avec des performances encore supérieures.

Les modèles sont pré-entraînés sur des données ouvertes issues du web et ajustés pour les instructions. Ils prennent en charge de multiples langages ainsi que le code informatique.

Cette API est compatible avec les différentes interfaces de conversation populaire, et des bibliothèques client sont disponibles pour Python et Javascript. Vous pouvez aussi le télécharger gratuitement en suivant ce lien.

Tester Mixtral gratuitement sur HuggingFace ou d'autres plateformes

Vous pouvez essayer Mixtral 8x7B dès maintenant sur la plateforme HuggingFace en suivant ce lien. Notez cependant que cette version est limitée par des filtres de sécurité. Elle ne répondra pas aux questions jugées dangereuses.

En guise d'alternative, vous pouvez vous rendre sur Perplexity Labs. Vous y trouverez plusieurs modèles dont Mixtral-8x7B, Mistral-7b et Llama 2.

La plateforme Poe propose également des robots pour plusieurs LLM populaires dont GPT-4, 3, Meta Llama 2 et Code Llama, Google PaLM 2, Anthropic Claude-instant et Claude 2 ou encore StableDiffusionXL.

Le bot de Mixtral-8x7B est géré par Fireworks AI. Il s'agit d'une implémentation non officielle ajustée spécifiquement pour la conversation.

Une autre démo est disponible sur Vercel, et permet aux utilisateurs de comparer les réponses avec celles d'autres modèles d'OpenAI, Meta, ou encore Cohere.

Enfin, Replicate propose une démo Mixtral-8x7B-32 basée sur le code source disponible à cette adresse. Il est précisé que son inférence est plutôt inefficace.

Vous savez désormais comment utiliser les IA Mistral ! Alors, allez-vous choisir de consommer français ?

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *