Pour atteindre le même objectif, ils ne se considèrent plus comme concurrents. Avec OpenAI et Amazon, Thinking Machines ambitionne de transformer l’IA, comme beaucoup l’attendent depuis longtemps.
L’alliance n’est pas officielle au sens classique. Pourtant, chercheurs et ingénieurs de ces trois entités avancent des idées similaires pour remanier la formation des gros modèles d’IA. Le système actuel, basé sur un pré‑entraînement massif puis une spécialisation, montre ses limites. La R&D pourrait être profondément bouleversée dans les prochains mois. Détails !
Changer l’IA : pourquoi ?
Aujourd’hui, l’entraînement des LLM passe par deux grandes étapes. D’abord, un pré‑entraînement général, puis une mise au point ciblée. Ce processus a fait ses preuves. Toutefois, il consomme des ressources énormes et produit parfois des résultats inattendus.
David Luan, chercheur en IA chez Amazon, critique ce modèle « universel » qui impose d’apprendre des sujets inutiles pour certaines applications. Il prône une approche plus pragmatique. Notamment alimenter les modèles très tôt avec des données spécialisées pour qu’ils deviennent efficaces rapidement.
OpenAI et Thinking Machines partagent également cette vision. Ils souhaitent que toutes les équipes travaillent de concert dès le départ, pour calibrer les modèles avec précision.
Ce changement pourrait donc rendre les modèles plus performants dans des tâches spécifiques, mais moins universels. La stratégie devient autant commerciale que technique. Les modèles deviendraient ainsi plus adaptés à des niches. Cela malgré les défis qui persistent.
Des IA plus cohérentes
Thinking Machines Lab publie un blog entier pour annoncer sa volonté de transformer l’IA. Son idée est de rendre les modèles capables de fournir des réponses reproductibles.
Horace He, chercheur du lab, explique que l’aléatoire vient de la façon dont les noyaux GPU sont orchestrés lors de l’inférence. En ajustant cette couche, les modèles pourraient devenir plus déterministes.
Concrètement, si vous posez plusieurs fois la même question à un modèle, vous obtiendriez enfin des réponses proches, voire identiques. Cela pourrait donc transformer l’utilisation professionnelle de l’IA.
L’impact dépasse la simple cohérence. Parce qu’avec des réponses reproductibles, l’apprentissage par renforcement devient plus efficace. Les modèles pourraient mieux intégrer les récompenses pour les bonnes réponses, réduisant le bruit dans les données. Thinking Machines envisage ainsi de personnaliser ses modèles pour les entreprises grâce à cette technique, comme le précise The Information.
Murati a également annoncé que le premier produit du laboratoire serait présenté prochainement. Il vise les chercheurs et start-ups développant des modèles personnalisés. On ignore encore si ce produit utilisera les techniques pour générer des réponses plus fiables. Mais le projet illustre la montée en puissance de Thinking Machines Lab, valorisé aujourd’hui à 12 milliards de dollars.
Le rôle d’Amazon et d’OpenAI dans ce projet de Thinking Machines
Le laboratoire Thinking Machines Lab a promis transparence et partage de ses recherches. Le blog « Connexionnisme » publiera articles, code et analyses pour contribuer au bien public. Cela tout en renforçant sa culture interne de recherche.
OpenAI, autrefois pionnier de la recherche ouverte, a beaucoup restreint l’accès à ses travaux en grandissant. Reste à voir si Thinking Machines suivra la voie de la transparence.
Parallèlement, Amazon Web Services fournit une infrastructure massive pour OpenAI. Les clusters GPU de pointe accélèrent l’entraînement et le déploiement de modèles complexes. Cette synergie n’est pas seulement technologique. Elle traduit aussi un investissement stratégique de plusieurs dizaines de milliards de dollars.
OpenAI peut ainsi se concentrer sur l’architecture et les usages, tandis qu’Amazon capitalise sur la puissance de calcul. Cette dynamique illustre comment la course à l’IA combine recherche de pointe, ressources matérielles et talents.
Bref, l’alliance tacite entre OpenAI, Amazon et Thinking Machines pourrait changer l’IA et produire des modèles plus ciblés. Les LLM deviendraient surtout plus fiables et mieux adaptés aux besoins professionnels. Si les projets de Thinking Machines Lab se concrétisent, la prochaine génération de LLM pourrait être plus rapide à entraîner. Je pense que ce scénario est probable et pourrait se concrétiser dans un avenir proche.
- Partager l'article :

