L’intelligence artificielle vient-elle de franchir un nouveau cap ? OpenAI lance enfin la version complète de o3, mais aussi une première version miniature de son successeur o4. Ces deux IA sont capables de raisonner, mais peuvent également utiliser des outils comme la recherche web, le codage en Python et surtout l’analyse d’images… découvrez tout ce qu’il faut savoir !
En septembre 2024, OpenAI lançait o1 : sa première IA de « raisonnement ». Un modèle distinct de la famille GPT, capable d’imiter la façon dont l’humain réfléchit grâce à un système appelé « chaîne de pensée ».
Plutôt que de répondre aussi vite que possible, les modèles de la famille o font des pauses et prennent leur temps pour fournir une réponse aussi pertinente que possible à vos questions.
Après avoir sauté « o2 » à cause d’un risque de problèmes de propriété intellectuelle, la firme américaine est directement passée à o3 en janvier 2025. Toutefois, jusqu’à présent, seule une version allégée « mini » était disponible.
Le 16 avril 2025, quelques jours après GPT-4.1, OpenAI a enfin lancé la version complète de o3. De plus, elle a également lancé simultanément o4-mini : la preview de la prochaine version.
Deux nouvelles IA qui explosent tous les records
Selon OpenAI, o3 est son modèle de raisonnement le plus avancé jusqu’à présent. Il surpasse toutes les précédentes versions sur les tests de mathématiques, de codage, de science, ou même de compréhension visuelle.
De son côté, o4-mini offre le meilleur compromis entre prix, vitesse et performance. Il s’agit là des trois facteurs que les développeurs prennent généralement en compte lors du choix d’un modèle IA pour propulser leurs applications. Ainsi, o4-mini pourrait bien devenir leur nouvelle coqueluche !
Sur le test SWE-bench, qui mesure les capacités de codage, o3 obtient un score de 69,1%. Le modèle o4-mini obtient un résultat similaire de 68,1%.
En comparaison, o3-mini n’atteignait que 49,3%. Même Claude 3.7 Sonnet d’Anthropic se contente d’un score de 62,3% !
ChatGPT peut enfin combiner raisonnement et recherche web !
Au-delà des performances, la vraie nouveauté de o3 et o4-mini, c’est leur capacité à utiliser des outils dans ChatGPT. Elles peuvent notamment exploiter la navigation web, ce qui était jusqu’à présent impossible avec o1 et réservé à la famille GPT.
En combinant raisonnement et recherche web, ces nouveaux modèles se placent donc en compétition directe avec des IA comme DeepSeek ou Grok.
D’ailleurs, le lancement de ces deux modèles semble s’inscrire dans un effort stratégique d’OpenAI pour reprendre le dessus sur xAI, DeepSeek, Google, Meta ou encore Anthropic dans la course mondiale de l’IA.
Même si la startup californienne a été la première à lancer un modèle de raisonnement avec o1, ses concurrents ont très rapidement suivi avec leurs propres IA égalant ou dépassant ses capacités.
Depuis plusieurs mois, ce type de modèles est d’ailleurs la priorité absolue des laboratoires d’intelligence artificielle dans le but d’améliorer les performances de leurs systèmes.
En février 2025, Sam Altman avait d’ailleurs annoncé ne pas vouloir incorporer o3 dans ChatGPT. Il préférait consacrer davantage de ressources à une alternative plus sophistiquée basée sur la même technologie, mais il semble que la pression de la concurrence l’ait poussé à changer d’avis.
L’IA peut enfin analyser les images comme dans Blade Runner
Outre la recherche web, les deux modèles peuvent exploiter l’exécution de code en Python, la génération d’image ou le traitement et l’analyse d’image. Ils se révèlent donc extrêmement polyvalents.
Selon OpenAI, o3 et o4-mini sont les premiers modèles capables de « penser avec des images ». Concrètement, vous pouvez uploader des images sur ChatGPT, comme des diagrammes ou des croquis.
L’intelligence artificielle se charge alors de les analyser pendant la phase de « chaîne-de-pensée » avant de fournir sa réponse.
Ceci permet par exemple à o3 et o4-mini de décrypter les images floues ou de faible qualité, et d’effectuer des tâches comme le zoom ou la rotation des images pendant qu’ils réfléchissent…
Comment utiliser o3 et o4-mini ?
Depuis le 16 avril 2025, tous les utilisateurs de ChatGPT Pro, Plus et Team peuvent utiliser o3 et o4-mini. La variante o4-mini-high, qui prend encore plus de temps pour perfectionner ses réponses, est également disponible.
Outre ChatGPT, les trois modèles seront disponibles sur les différents endpoints OpenAI destinés aux développeurs comme les API Chat Completions et Responses.
Ceci permettra aux ingénieurs logiciels de construire des applications à l’aide des modèles de l’entreprise pour un prix proportionnel à l’usage.
Le coût de o3 pour les développeurs est relativement bas compte tenu des performances accrues. Comptez 10 dollars par million de tokens d’input (environ 750 000 mots), et 40 dollars par million de tokens d’output.
Concernant o4-mini, le prix est le même que pour o3-mini : 1,10 dollar par million de token d’input, et 4,40 dollars par million de token d’output.
Dans les semaines à venir, OpenAI prévoit de lancer o3-Pro : une version de o3 utilisant davantage de puissance de calcul pour produire ses réponses.
Cette IA encore plus puissante sera toutefois réservée aux utilisateurs de ChatGPT Pro, dont l’abonnement est tarifé à 200 dollars par mois…
Notons également que le CEO d’OpenAI laisse entendre que o3 et o4-mini pourraient être les derniers modèles IA de raisonnement séparés sur ChatGPT. Avec le futur GPT-5, les familles o et GPT seront unifiées…
Alors, que pensez-vous de o3 et o4-mini ? Avez-vous testé ces deux modèles ? Quelle est selon vous la principale utilité apportée par leurs nouvelles capacités ? Partagez votre avis en commentaire !
- Partager l'article :