Inferact lève 150M$ pour faire de vLLM le moteur d’inférence incontournable

La jeune pousse Inferact, spécialisée dans l’inférence, vient de lever 150 millions de dollars. Son ambition est de transformer vLLM en produit commercial à grande échelle. 

Cette levée de fonds a été menée conjointement par Andreessen Horowitz (a16z) et Lightspeed Venture Partners. Ce, avec la participation de Sequoia Capital, Altimeter Capital, Redpoint Ventures et ZhenFund.

Tout savoir sur Inferact

Inferact est une startup américaine fondée en novembre 2025 et se dévoile publiquement cette semaine. Elle était valorisée à 800 millions de dollars dès son tour d’amorçage.

Elle s’articule autour de vLLM. Il s’agit d’un projet open source lancé en 2023 pour permettre aux entreprises de déployer efficacement des modèles d’IA sur l’infrastructure de leurs centres de données. 

À l’origine, développé à l’Université de Californie à Berkeley, vLLM était un simple projet open source très apprécié des développeurs.  Aujourd’hui, il attire des milliers de contributeurs. La Fondation PyTorch le supervise.

Ce, venant de l’ensemble du secteur de l’IA, selon les informations communiquées par Inferact et ses investisseurs. Aujourd’hui, ce logiciel libre est même considéré comme le moteur d’inférence le plus utilisé pour les grands modèles de langage

À la tête d’Inferact se trouve Simon Mo. C’est l’un des développeurs initiaux de vLLM. Pour illustrer ses ambitions, il a comparé les débuts d’Inferact à ceux de projets logiciels emblématiques issus de Berkeley. Parmi eux, Apache Spark ou Ray, qui ont eux aussi commencé dans un cadre académique avant de s’imposer à l’échelle industrielle.

L’équipe fondatrice d’Inferact inclut aussi Woosuk Kwon, Kaichao You et d’autres chercheurs qui ont contribué au projet vLLM depuis le début. 

La prochaine étape d’Inferact avec cette levée

Inferact a affirmé que sa priorité numéro un reste de maintenir vLLM comme un projet open source indépendant. Elle partagera toutes les améliorations avec la communauté. 

Son deuxième objectif consiste à créer un produit commercial distinct. Cela permettra aux entreprises d’exécuter des modèles d’IA de manière plus efficace sur différents types de matériel.

Simon Mo a souligné que cette levée de fonds initiale exceptionnellement élevée reflète l’ampleur du potentiel et l’impact que même de petits gains d’efficacité peuvent représenter sur les coûts. 

YouTube video

Il a aussi précisé qu’Inferact ne cherche pas à remplacer ni à monopoliser le projet open source. Qu’en fait, elle vise à construire une entreprise qui le soutienne et le fasse progresser.

Selon Bloomberg, pour démontrer l’adoption déjà massive de vLLM, Mo a cité Amazon.com Inc.  D’après lui, l’application d’achat de l’entreprise, et pas seulement son activité cloud, repose sur vLLM pour faire fonctionner ses systèmes internes d’IA.

Un intérêt grandissant pour le vLLM

Comme mentionné précédemment, Andreessen Horowitz figure parmi ceux qui ont mené ce tour de table. Cela dit, son engagement avec vLLM remonte aux premiers jours du projet. 

Matt Bornstein, associé du fonds, a précisé que vLLM avait été le premier bénéficiaire du programme AI Open Source Grant en 2023. Il était destiné à soutenir les étudiants et développeurs travaillant sur des logiciels libres et open source. 

A16z a également organisé la première rencontre de la communauté vLLM. Ce qui lui a permis de tisser des liens solides avec l’équipe bien avant la naissance d’Inferact.

Selon les investisseurs, cet intérêt reflète une tendance plus large dans le secteur de l’IA. Autrefois, le développement de nouveaux modèles prenait des années. Pourquoi ? Car les systèmes d’entraînement étaient lents et coûteux, explique Bornstein. 

Aujourd’hui, les modèles existants sont suffisamment performants pour être exploités immédiatement. Ce, sans attendre de mises à jour majeures. Pourtant, chaque produit d’IA doit interagir continuellement avec ces modèles. Ce qui fait exploser les coûts et met à l’épreuve les infrastructures. 

« L’inférence est le véritable goulot d’étranglement », souligne Bornstein, précisant que ce problème ne fera que s’intensifier dans les années à venir.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥