Il a quitté OpenAI sans claquer de communiqué grandiloquent, puis a levé 480 millions de dollars sans montrer le moindre produit. Son idée: l’IA actuelle est brillante, mais socialement inapte. Et tant qu’elle ne saura pas coordonner des humains entre eux, elle passera à côté de l’essentiel. Pour corriger ça, il vise désormais un milliard.
À l’heure où les ingénieurs rêvent d’IA capables de réfléchir seules pendant des heures, Eric Zelikman a pris le contrepied. Il ne croit plus à la super-intelligence solitaire, ni aux modèles qui empilent des performances en vase clos.
Selon lui, le vrai point faible de l’intelligence artificielle moderne n’est pas cognitif, mais humain. Elle sait répondre, calculer, coder. Elle ne sait pas gérer un groupe, arbitrer des désaccords, ni accompagner une décision qui traîne sur plusieurs semaines.
C’est ce constat qui l’a poussé à quitter l’un des laboratoires les plus convoités de la planète pour lancer Humans&, une startup encore sans produit, mais déjà surdotée comme peu d’autres.
Derrière l’argent et les noms prestigieux, une ambition beaucoup plus dérangeante se dessine: créer une IA moins impressionnante, mais capable de faire ce que les humains font le plus mal depuis toujours… travailler ensemble.
Il a claqué la porte d’OpenAI au moment où tout le monde voulait y entrer
Quitter OpenAI aujourd’hui, ce n’est pas une reconversion. C’est un acte. Eric Zelikman n’est pas parti parce que l’IA va trop lentement. Il est parti parce qu’elle va, selon lui, dans la mauvaise direction.
Pendant que les grands labos empilent des modèles toujours plus performants en solo, lui estime que la promesse a été mal formulée dès le départ. L’intelligence artificielle n’échouera pas par manque de puissance, mais par incapacité à comprendre comment les humains travaillent réellement ensemble.
Ce désaccord n’a rien d’anecdotique. Il structure tout le projet Humans&, lancé fin 2025 dans un relatif silence, avant de faire exploser le plafond de verre du capital-risque.
Les IA savent raisonner, mais elles ne savent pas faire société
Les modèles actuels excellent dans un face-à-face. Une question, une réponse. Un prompt, un résultat. Mais dès que le décor se peuple, tout se délite. Plusieurs humains, des priorités contradictoires, des décisions étalées sur des semaines, des compromis jamais vraiment formalisés: l’IA devient aveugle.
Dans la vraie vie, le travail ne ressemble pas à un échange propre et séquentiel. Il ressemble à une réunion interminable, à des documents partagés mal compris, à des décisions prises à moitié, puis oubliées. Les IA dominantes ne savent pas gérer ce chaos-là. Elles répondent bien. Elles coordonnent mal.
C’est ce point précis que Humans& attaque de front.
Une autre ambition: créer une IA sociale, pas une IA spectaculaire
Humans& ne cherche pas à produire une super-intelligence solitaire enfermée dans un terminal. Leur objectif est plus discret, mais plus radical: bâtir une IA capable de comprendre les dynamiques humaines. Qui parle à qui. Qui bloque quoi. Pourquoi une décision n’avance pas. Ce qui a déjà été acté, puis contredit.
Eric Zelikman parle d’un “tissu conjonctif” entre humains et machines. Pas un outil de plus, mais une couche vivante qui relie les individus entre eux, et avec les IA qu’ils utilisent déjà. Une IA qui ne remplace pas les humains, mais qui les empêche de se neutraliser mutuellement.
Un modèle conçu pour durer, pas pour briller en une réponse
Techniquement, le projet rompt avec la logique dominante. Humans& mise sur du long-horizon reinforcement learning, pour entraîner des modèles capables de planifier, corriger, suivre des décisions sur la durée. Pas seulement générer une bonne réponse, mais accompagner un processus.
Ils y ajoutent du multi-agent RL, pour fonctionner dans des environnements où humains et IA interagissent en permanence. Et surtout, une mémoire persistante. Une IA qui se souvient. De toi. De ton équipe. Des tensions passées. Des arbitrages déjà tentés.
Ce n’est pas plus “intelligent” au sens classique. C’est moins amnésique. Et beaucoup plus coûteux.
Lever 480 millions sans produit: ce que les investisseurs achètent vraiment
En trois mois d’existence, Humans& a levé 480 millions de dollars pour une valorisation de 4,48 milliards. Un seed hors normes, mené par SV Angel, avec Ron Conway, NVIDIA, GV et Jeff Bezos.
Il n’y a pas de produit. Pas même une démo publique. Ce que les investisseurs achètent, ce n’est pas une app, mais une position future. Posséder la couche de coordination, c’est posséder les décisions, la mémoire collective, les arbitrages invisibles. Là où se crée réellement la valeur dans une organisation.
Dans un contexte de guerre du calcul, la présence de NVIDIA n’est pas un détail. Ce type de modèle exige des ressources démesurées. Humans& ne promet pas la sobriété. Ils promettent la refondation.
Une menace directe pour les outils de collaboration… et pour les grands labos
Slack, Notion, Google Docs ne sont pas la vraie cible. Ils sont le symptôme. Humans& ne veut pas ajouter une IA à la collaboration existante. Ils veulent redéfinir la collaboration elle-même.
Les grands labos ont bien compris le problème. Anthropic travaille sur des usages collaboratifs de Claude. Google injecte Gemini dans Workspace. OpenAI parle désormais d’orchestration multi-agents. Mais tous partent de modèles conçus pour autre chose.
Humans& prend le pari inverse : reconstruire le modèle autour de l’intelligence sociale. Soit c’est une avance conceptuelle majeure. Soit c’est une cible d’acquisition idéale. Eux jurent l’indépendance.
Une vision humaniste… ou un nouveau centre de pouvoir silencieux
Une IA qui comprend les groupes, qui mémorise les dynamiques, qui arbitre en douceur, ce n’est pas neutre. Qui définit ce qui est “bon pour le groupe”? Qui décide quand un compromis est acceptable? Où s’arrête l’aide, où commence l’influence?
Humans& promet d’augmenter les humains, pas de les diriger. Mais une couche de coordination devient vite une couche de pouvoir. Invisible, mais structurante.
Le vrai pari derrière le milliard recherché
Ce projet ne cherche pas à rendre l’IA plus impressionnante. Il cherche à la rendre enfin utile là où les humains échouent le plus: travailler ensemble sans se bloquer.
Si Humans& réussit, l’IA ne sera plus celle qui écrit le mieux, ni celle qui code le plus vite. Elle sera celle qui empêche une organisation de s’enliser. Ce n’est pas spectaculaire. C’est beaucoup plus dangereux pour l’ordre établi.
Et c’est sans doute pour cela qu’un ancien d’OpenAI pense qu’il faut un milliard de dollars pour y arriver.
Et vous, qu’en pensez-vous ? La stratégie de Humans& et son fondateur Eric Zelikman est-elle la bonne ? Partagez votre avis en commentaire !
- Partager l'article :

