Nvidia dévoile sa propre famille de LLM : NVLM. Il s’agit de modèles IA open source, mais leur puissance rivalise avec les meilleurs modèles fermés de dernière génération comme GPT-4o et Google Gemini 1.5 !
Dans l’industrie de l’IA, Nvidia occupe une place centrale. En tant que leader de l’industrie des GPU, c’est lui qui fournit les puces indispensables à l’entraînement des modèles d’intelligence artificielle.
Que ce soit les plus grands mastodontes comme OpenAI et Meta ou les startups, tous les acteurs du secteur s’arrachent ses GPU afin de créer les IA plus performantes.
Toutefois, la firme américaine ne semble pas vouloir se contenter de ce rôle d’équipementier. En ce début de mois d’octobre 2024, Nvidia vient d’annoncer le lancement de son propre LLM capable de rivaliser avec les meilleurs modèles d’OpenAI, Google, Meta ou Anthropic !
Cerise sur le gâteau : NVLM 1.0 est une famille de LLM open source. De quoi donner du fil à retordre aux géants de l’industrie…
NVLM : une puissante famille de LLM Open Source multimodaux !
Selon les chercheurs de la firme, il s’agit d’une « famille de larges modèles de langage multimodaux de classe frontière atteignant des performances de pointe sur les tâches de vision-langage, rivalisant avec les principaux modèles propriétaires comme GPT-4o et les meilleurs modèles en accès ouvert ».
Le chef de file de cette famille de LLM est NVLM-D-72B, qui comporte 72 milliards de paramètres. À titre de comparaison, on estime que GPT-4o cumule 200 milliards de paramètres. Toutefois, le nombre de paramètres ne garantit pas forcément la supériorité en termes de performances…
Cette famille d’IA est d’ores et déjà capable d’une multimodalité de très haut niveau, avec des performances exceptionnelles sur une grande variété de tâches de vision et de langage.
Elle propose également des réponses textuelles améliorées par rapport au LLM de base sur lequel elle est basée ! Sa précision textuelle a été augmentée d’une moyenne de 4,3 points sur les principaux benchmarks de l’industrie.
Pour accomplir cette prouesse, Nvidia explique avoir « construit et intégré un dataset textuel de haute qualité dans un entraînement multimodal ».
Outre ce dataset, un large volume de données multimodales de mathématiques et de raisonnement ont été incorporé à l’entraînement pour étendre ses capacités de maths et de codage sur toutes les modalités.
Le résultat ? Un LLM aussi bien capable d’expliquer pourquoi un meme est drôle que de résoudre des équations mathématiques complexes étape par étape.
Nvidia fait le choix de l’Open Source, afin d’ouvrir les portes de l’IA aux développeurs
Fermement déterminé à proposer un vrai LLM open source, Nvidia s’est assuré que la famille NVLM corresponde à la dernière définition en date de l’Open Source Initiative.
Ainsi, elle a non seulement mis les poids d’entraînement à disposition du public, mais promet aussi de relâcher le code source dans un avenir proche !
C’est une grande différence avec ses rivaux comme OpenAI et Google, qui gardent jalousement les détails de leurs LLM pour les protéger de la concurrence.
En adoptant cette stratégie, Nvidia ne place pas nécessairement la famille NVLM en adversaire direct de ChatGPT-4o ou Gemini 1.5 Pro, mais plutôt comme une fondation pour permettre aux développeurs tiers de créer leurs propres chatbots et applications IA !
Alors, qu’en pensez-vous ? Les développeurs tiers vont-ils délaisser les modèles propriétaires comme GPT afin de se tourner vers la famille NVLM open source proposée par Nvidia ? Quelles conséquences pour l’industrie ? Partagez votre avis en commentaire !
- Partager l'article :
Il a fallu du temps pour que tout ça soit une évidence,
NVIDIA devrait s’y mettre il ya de cela des années car c’est lui qui fournit l’outil fondamentale
et je pense aussi qui n’aura pas une bonne côte de popularité comme Chatgpt auprès du public car il as perdu le fil