Apple choisit Gemini pour booster Siri et forcément, ça met le feu aux comparaisons. Ars Technica a donc opposé Gemini 3.2 Fast à ChatGPT 5.2 dans une série de tests concrets, proches de ce que vit un utilisateur sans abonnement.
Ainsi, Apple aurait pris une décision en s’associant à Google Gemini pour alimenter la prochaine génération de Siri. Tout le monde se demande donc si Gemini a-t-il enfin dépassé ChatGPT ? Si la marque à la Pomme mise sur Gemini, c’est qu’il y a une raison.
Pour y voir plus clair, Ars Technica a donc réalisé une série d’essais comparatifs, histoire de vérifier où en sont réellement les deux géants de l’IA aujourd’hui. Leur idée était de coller à l’expérience la plus probable pour le grand public, notamment les futurs utilisateurs de Siri.
Pourquoi ce duel est plus important qu’un simple match d’IA ?
Ce face-à-face se passe alors entre ChatGPT 5.2 (OpenAI) et Gemini 3.2 Fast (Google). Ces deux modèles sont accessibles par défaut aux utilisateurs sans abonnement payant. L’expérience montre qu’au quotidien, ce qui compte, ce n’est pas juste une IA plus intelligent. Mais qui est le plus fiable, le plus clair, et le plus utile surtout quand on demande des choses un peu tordues.
Breaking News 🚨
— Beebom (@beebomco) January 12, 2026
It’s now Official that Google Gemini will be powering Siri soon.
What do you think about this? Tell us! pic.twitter.com/2hMuqQNIYx
Ars Technica a repris une méthode déjà utilisée dans le passé. Et c’est de poser les mêmes requêtes à Gemini et ChatGPT et juger les réponses à la fois de manière objective et avec une part d’intuition. Parce qu’une bonne réponse, ce n’est pas qu’une suite de faits, c’est aussi un ton, une structure, une capacité à comprendre une consigne.
Ils ont donc utilisé un lot de requêtes plus complexes et plus modernes, identiques à celles testées l’été dernier dans un comparatif entre GPT-5 et GPT-4o. Ils ont mesuré la capacité de Gemini et ChatGPT à gérer de la créativité avec contrainte (blagues originales), du calcul réaliste (Windows 11 sur disquettes), de la rédaction (biographie, mails), des conseils techniques (Super Mario sans courir), des réponses sensibles (santé), et même une demande dangereuse (atterrir un Boeing).
Créativité : ChatGPT reste le roi du style (mais pas parfait)
Premier round, “Écrivez 5 blagues de papa originales ”.
Comme souvent, les deux modèles ont du mal avec le mot « original« . Les blagues proposées par Gemini se retrouvent presque mot pour mot en quelques clics sur r/dadjokes, ChatGPT s’en sort à peine mieux avec deux blagues qui ressemblent aussi à des classiques déjà vus. Et une autre ressemble à un remix un peu bancal de deux blagues d’épouvantail.
Mais ChatGPT arrive quand même à produire deux propositions qui semblent réellement originales… même si la qualité n’est pas constante. Par exemple, une chute sur une boulangerie “pour pessimistes” censée jouer sur “à moitié vide”… sauf que ça ne marche pas vraiment comme jeu de mots. Une autre, sur “se battre avec un calendrier”, a l’ossature typique d’une blague de papa, mais avec une phrase finale bizarre (“j’ignore ses dates”).
ChatGPT gagne donc aux points, surtout parce que Gemini passe complètement à côté de la consigne original.
Ensuite, le test bascule sur un vrai exercice d’imagination. “Rédigez un récit créatif de deux paragraphes sur l’invention du basketball par Abraham Lincoln.”
Et ici, ChatGPT ajoute des détails absurdes mais cohérents et drôles. Comme un vieux seau à charbon utilisé comme panier, le dribble présenté comme un « rebond intentionnel”, Lincoln qui compte les points sur son “chapeau en forme de tuyau de poêle”… ça se lit bien, ça fait sourire, et surtout, c’est clair.
Gemini, lui, propose une histoire avec des passages plus confus. Lincoln parle d’une campagne “menée avec du papier plutôt qu’avec du plomb”, sans que ça ne serve à rien dans le récit. Et certaines scènes deviennent presque impossibles à visualiser (une balle qui “glisse à travers le fond du panier en osier” qu’il aurait oublié de découperet qu’il repousse avec un manche à balai cérémoniel ?). On sent l’idée, mais l’exécution est floue.
Sur le terrain créatif, ChatGPT remporte la palme du charme et de la clarté.
Utilité au quotidien : Gemini se montre plus fiable et plus propre
Quand on passe aux tâches pratiques, l’écart change de camp.
Sur le problème mathématique absurde : “Si Windows 11 était distribué sur des disquettes 3,5 pouces, combien de disquettes faudrait-il ?”
ChatGPT et Gemini estiment la taille de Windows 11 autour de 6 à 6,4 Go. Ce n’est pas pile exact (une ISO récente peut plutôt tourner entre 6,7 et 7,2 Go), mais les testeurs leur pardonnent. Certaines versions plus anciennes correspondaient aux estimations.
Là où ça se complique, c’est la méthode. ChatGPT mélange Go et Gio, ce qui crée une différence de stockage d’environ 7% (donc potentiellement plusieurs centaines de disquettes dans le résultat final). Il commence aussi à se perdre dans ses calculs, jusqu’à afficher des morceaux de raisonnement confus du style “attendez, calcul :…”
Gemini, au contraire, reste cohérent dans ses unités et donne une explication plus simple, plus solide. Il ajoute même une comparaison avec les versions historiques de Windows, jusqu’à Windows 3.1, distribuées sur seulement 6 ou 7 disquettes.
Alors ? Gemini gagne grâce à la clarté et la rigueur.
Un autre essaie révélateur : c’est d’écrire un mail difficile. “Mon patron veut que je termine un projet dans un délai impossible : que répondre avec tact ?”
Les deux modèles proposent des mails utiles, mais Gemini sort du lot. Il donne trois options au lieu de deux. Et surtout, il explique dans quel contexte utiliser chaque version (par exemple si le manager est sensible à la logique, ou à l’organisation, etc.). Il ajoute aussi des conseils comme adopte un ton collaboratif, évite la posture défensive…
Gemini est clairement plus coach pro que ChatGPT. Victoire Google.
Là où ChatGPT dérape : erreurs factuelles et conseils foireux
La fiabilité, c’est probablement l’aspect le plus important du test.
Sur la consigne “Rédigez une courte biographie de Kyle Orland”, ChatGPT invente des infos et affirme notamment que l’auteur aurait rejoint Ars Technica en 2007 (alors que ses premiers articles datent de 2012). Il invente aussi un sous-titre pour son livre The Game Beat.
Gemini, lui, raconte un parcours bien plus complet (site de fans Mario, études, freelance, Ars, livres) et donne même des liens vers ses sources. Même si, dans la version partagée publiquement, certains liens ne fonctionnent pas.
Mais l’essentiel est là? Gemini n’invente pas. Et c’est pareil dans un test “guide jeux vidéo”. “Je suis au niveau 8-2 de Super Mario Bros., mon bouton B ne marche plus, comment finir sans courir ?”
ChatGPT donne des conseils confus, parle de sections qui n’existent pas et propose des stratégies inutiles, voire carrément fausses, comme dire qu’un saut est possible “sans élan” sur le gouffre le plus dur, alors que c’est justement celui qui demande une astuce.
Gemini, lui, comprend tout de suite le problème. Si il n’y a pas de vitesse il n’y a pas de distance. Il propose de battre Lakitu vite, et surtout une vraie technique utilisée par les speedrunners. C’est de rebondir sur un ennemi pour franchir le passage le plus long. Il pense même au cas “bouton B cassé” sur émulateur où un autre bouton pourrait servir à courir.
Victoire incontestable pour Gemini.
Gemini passe devant mais ChatGPT garde un truc en plus
Si on compte juste les points Gemini gagne 4 manches et ChatGPT en gagne 3. 1 manche est un match nul (sur la question médicale, où les deux répondent de façon quasi identique et responsable. Les cristaux ne soignent pas le cancer, mais peuvent apaiser psychologiquement, et il faut parler à des médecins).
Donc Gemini gagne. Mais le plus intéressant, c’est comment. ChatGPT gagne surtout sur des victoires stylistiques et créatives comme l’humour, la narration, la petite magie du texte. Il a ce côté conteux, plus vivant, parfois plus fun à lire. Gemini, de son côté, domine dès qu’il faut être fiable, structuré, factuel, utile dans un vrai contexte, et solide sur des tâches qui demandent de la précision.
Et c’est probablement ce qui explique pourquoi Apple peut regarder ces résultats et se dire “Ok, pour Siri, on veut un assistant qui se trompe moins”. Parce que dans une interface comme Siri, une erreur ou un conseil raté peut ruiner l’expérience. Donc non, Gemini n’a pas “explosé” ChatGPT.
Mais oui, Google a rattrapé et même dépassé, OpenAI sur l’aspect fiabilité pratique, au moins dans cet expérience-là. ChatGPT reste fort en créativité mais pour le quotidien, Gemini fait très peur (dans le bon sens du terme).
- Partager l'article :


