Il y a des moments où une technologie ne “progresse” plus, elle change la règle du jeu. Début février 2026, OpenAI et Anthropic ont publié des modèles capables de tenir des tâches longues, d’utiliser des outils, d’avaler des projets entiers. Une partie du travail de bureau devient automatisable à une échelle qui fait froid dans le dos. Et cette fois, l’alerte ne vient pas d’un forum obscur: elle est écrite noir sur blanc par ceux qui construisent les machines.
Ce qui arrive ne ressemble pas à un robot qui débarque au bureau pour vous prendre votre chaise. C’est plus sournois, plus moderne, plus efficace: un onglet qui lit votre dossier, rédige, corrige, résume, classe, code, teste, recommence. Pendant que vous êtes au déjeuner.
La sirène a déjà sonné, et beaucoup continuent de travailler comme si de rien n’était
On a tous déjà ignoré une alerte, parce que “ça doit être pour quelqu’un d’autre”. Le 9 février 2026, Matt Shumer publie un texte viral, construit comme un message à des proches: “pensez à février 2020”.
L’idée est simple et brutale: tout comme le COVID circulait à bas bruit bien avant qu’on s’en rende compte, l’IA est en train de basculer, mais le grand public ne voit encore que des versions limitées, et sous-estime ce qui est déjà disponible.
Le texte fait peur, et c’est exactement pour ça qu’il se propage. Parce qu’il met des mots sur un malaise diffus: cette fois, la concurrence n’est pas “un autre candidat”. C’est une machine qui peut produire, itérer et livrer, sans fatigue.
5 février 2026: le jour où l’IA a arrêté de bavarder, et a commencé à exécuter
On parle souvent de “révolution” pour tout et n’importe quoi. Là, il y a une date. Le 5 février 2026, OpenAI publie “Introducing GPT-5.3-Codex” et lâche une phrase qui résume la bascule: Codex passe d’un agent qui écrit et relit du code à un agent qui peut faire “presque tout ce que développeurs et professionnels peuvent faire sur un ordinateur”. Traduction: l’IA vise le travail réel, pas la démo.
Le même jour, Anthropic annonce Claude Opus 4.6: planification plus soignée, tâches agentiques tenues plus longtemps, plus de fiabilité sur de grosses bases de code, meilleure relecture et débogage, et une fenêtre de contexte d’1 million de tokens en bêta. Dit autrement: vous lui confiez une cathédrale de documents, elle garde le plan.
“Le modèle a aidé à créer le modèle”: la boucle qui accélère l’accélération
C’est la phrase qui transforme une inquiétude en vertige. OpenAI écrit que GPT-5.3-Codex est leur premier modèle “instrumental dans sa propre création”, utilisé pour déboguer son entraînement, gérer son déploiement et diagnostiquer les résultats de tests.
Ce que ça signifie, très concrètement, c’est que l’IA ne sert plus seulement à produire du travail, elle sert à accélérer la machine qui produira encore plus de travail. Même sans fantasmer une autonomie totale, une chose devient évidente: la cadence d’itération peut grimper. Et quand la cadence grimpe, le marché du travail n’a pas le temps de “se préparer tranquillement”.
“White-collar bloodbath”: quand un CEO d’IA parle d’un bain de sang chez les cols blancs
Le mot est violent, et il n’est pas utilisé par un inconnu en quête de clics. Dans une interview à Axios, Dario Amodei (Anthropic) affirme que l’IA pourrait balayer jusqu’à 50% des emplois de bureau débutants et pousser le chômage vers 10 à 20% dans un horizon d’un à cinq ans, selon ce scénario.
On peut discuter les dates, contester l’ampleur, débattre des contre-effets. Mais le cœur du message est glaçant: le choc vise d’abord les postes qui servent de marchepied, ces rôles où l’on apprend le métier en produisant du volume.
Le vrai film d’horreur: l’escalier d’entrée des métiers qui se fait manger marche après marche
Le grand public s’imagine souvent un futur “tout ou rien”: soit l’IA remplace tout, soit elle ne remplace rien. La réalité la plus corrosive ressemble plutôt à une érosion: moins de tâches simples, moins de missions “pour se faire la main”, moins de postes d’entrée.
Le World Economic Forum le formule en termes froids: son Future of Jobs Report 2025 indique que 40% des employeurs s’attendent à réduire leurs effectifs là où l’IA automatise des tâches. Et le Forum avertit aussi que l’IA peut “fermer la porte” des opportunités d’entrée de carrière.
Même logique côté FMI: près de 40% des emplois mondiaux seraient exposés à l’IA, et dans les économies avancées, environ 60% des emplois pourraient être impactés. Pour une partie des postes exposés, l’IA peut exécuter des tâches clés, ce qui pèse sur la demande de travail, les salaires et l’embauche.
6,1 millions de personnes en “zone rouge”: quand la vague choisit ses victimes
Le pire dans une disruption, ce n’est pas qu’elle touche “tout le monde”. C’est qu’elle tape plus fort sur ceux qui ont le moins de marge. Brookings a tenté de mesurer non seulement l’exposition, mais la capacité à rebondir. Résultat: environ 6,1 millions de travailleurs américains cumulent forte exposition et faible capacité d’adaptation à une transition.
Et il y a une dimension sociale qui rend le choc encore plus violent. L’OCDE souligne que les métiers administratifs et “clerical” combinent forte exposition à l’IA et surreprésentation de femmes, particulièrement sans diplôme supérieur. Autrement dit: la vague ne frappe pas au hasard.
Prévenir ses proches, concrètement, c’est éviter le piège du déni confortable
Le piège le plus dangereux, ce n’est pas “l’IA va tout remplacer demain”. Le piège, c’est “on verra plus tard”. Parce que les bascules ne préviennent pas. Elles commencent par un détail: une embauche annulée, un poste junior gelé, une mission confiée à un agent, une équipe “optimisée”.
Prévenir ses proches, c’est leur faire comprendre où se situe la ligne de fracture: les métiers très écran, très procéduraux, très répétables, et surtout les tâches qui servent d’apprentissage. Ce n’est pas un futur lointain. C’est une pression qui se met en place maintenant, au rythme des modèles qui apprennent à tenir des projets entiers.
Le slogan “prévenez vos proches” marche parce qu’il dit tout haut ce que beaucoup ressentent: l’IA ne se contente plus d’aider, elle commence à concurrencer. Début février 2026, les labos ont publié des modèles qui visent l’exécution, la durée, l’itération, et l’usage d’outils.
La question n’est plus “est-ce que ça va secouer l’emploi?”. La question, c’est combien de temps on peut regarder la fumée en se répétant que ce n’est pas un incendie.
- Partager l'article :



