histoire de ChatGPT - frise

L’histoire de ChatGPT : de GPT-3 à aujourd’hui

Connaissez-vous vraiment l’histoire de ChatGPT et les rouages de son ascension fulgurante ? Cette technologie, née dans la discrétion d’un laboratoire californien, dicte désormais le tempo de l’innovation mondiale. L’intelligence artificielle, dont OpenAI fut l’instigatrice, se retrouve aujourd’hui au cœur de tensions géopolitiques. Prenez place, je vous dis tout.

YouTube video

L’interface miracle GPT-3 marque l’histoire de ChatGPT

Le laboratoire OpenAI publie le papier de recherche sur le modèle GPT-3 au mois de mai 2020. Cette date marque son histoire au fer rouge. Ce réseau de neurones unique en son genre déploie, en effet, 175 milliards de paramètres entraînés sur le corpus Common Crawl. L’architecture Transformer utilise 96 couches d’attention pour traiter le langage naturel.

Le coût de l’entraînement sur les supercalculateurs avoisine les 4,6 millions de dollars selon les estimations. L’accès initial se fait uniquement via une API privée pour contrôler les risques de sécurité. Le modèle statistique de cette époque prédit le token suivant sans aucune compréhension sémantique réelle du monde physique.

Premier vrai assistant de conversation au monde

Les ingénieurs dirigés par Jan Leike implémentent ensuite la méthode Reinforcement Learning from Human Feedback (RLHF). Des annotateurs humains classent des milliers de réponses pour modéliser une fonction de récompense fiable. L’algorithme d’optimisation de politique proximale (PPO) ajuste les poids du modèle selon ces scores.

Ce processus réduit le taux de toxicité et les hallucinations factuelles du système brut. Le modèle InstructGPT qui en résulte surpasse GPT-3 en pertinence avec cent fois moins de paramètres. Cette rigueur scientifique transforme un moteur d’intelligence artificielle probabiliste en assistant conversationnel viable.

histoire de ChatGPT - IA  probabiliste
L’histoire de ChatGPT est celle d’un programme informatique au fonctionnement assez simple, mais qui évolue rapidement.

Une démocratisation brutale de l’IA secoue le web mondial

Le lancement de l’interface grand public de ChatGPT a lieu le 30 novembre 2022 sous le nom de Research Preview. Le système atteint le million d’utilisateurs en 5 jours contre 2 ans pour Twitter. Le trafic sature rapidement les clusters de serveurs équipés de milliers de cartes graphiques A100.

La latence des réponses du modèle IA augmente drastiquement face à cette charge de requêtes imprévue. Les ingénieurs déploient alors des correctifs d’urgence pour stabiliser l’infrastructure du cloud sous tension. Le coût opérationnel quotidien de l’inférence dépasse rapidement les 700 000 dollars.

La banque UBS confirme que l’application atteint le cap symbolique des 100 millions d’utilisateurs actifs mensuels en janvier 2023. Cette adoption force Google à déclarer une « alerte rouge » et réorganiser ses équipes IA. Le géant du web a plus tard signé un accord avec Open AI. Le département de l’éducation de New York bloque l’accès sur ses réseaux le 3 janvier.

Les développeurs constatent des capacités émergentes non prévues comme la traduction de code informatique. La dette technique de l’industrie logicielle mondiale devient soudainement obsolète face à cette rupture. Les analystes de Goldman Sachs prédisent l’impact sur 300 millions d’emplois administratifs.

histoire de ChatGPT - IA démocratique

Une intelligence artificielle gavée aux milliards de dollars

Un investisseur majeur confirme un apport de 10 milliards de dollars le 23 janvier 2023. Cet accord inclut 75% des profits futurs de la startup jusqu’au remboursement du capital. Annoncé comme le plus puissant de son temps, le modèle GPT-4 sort le 14 mars 2023 avec une architecture de mélange d’experts (MoE).

Cette intelligence artificielle traite 32 000 tokens de contexte et réussit l’examen du barreau dans le top 10%. La reconnaissance d’images via la technologie Be My Eyes était également une petite révolution. Elle décrit des scènes complexes aux malvoyants. Ce saut de performance valide la loi de l’échelle (scaling laws) théorisée par Jared Kaplan.

La conférence DevDay de novembre 2023 dévoile le modèle GPT-4 Turbo et les assistants personnalisés. Le coût des tokens d’entrée baisse de deux tiers pour les développeurs via l’API. Le chiffre d’affaires annualisé dépasse le seuil du milliard de dollars fin 2023.

La valorisation sur le marché secondaire atteint 86 milliards de dollars lors de l’offre publique d’achat. Les revenus proviennent majoritairement des abonnements ChatGPT Premium et des licences entreprises du classement Fortune 500. La croissance financière inédite d’Open AI lance la course aux processeurs H100 de Nvidia. Attiré par cette manne financière, Elon Musk a déposé une offre non sollicitée et violemment réfusée de 97,4 milliards de dollars. Le CEO de Tesla et de SpaceX a cofondé OpenAI avec Sam Altman et quitte la start-up en 2018.

L’histoire de ChatGPT en 10 dates

  • Mai 2020 : publication de l’architecture GPT-3 aux 175 milliards de paramètres
  • 30 novembre 2022 : lancement public et viral de l’interface conversationnelle gratuite
  • Janvier 2023 : record historique atteint avec 100 millions d’utilisateurs actifs
  • 23 janvier 2023 : injection de 10 milliards de dollars par le partenaire Microsoft
  • 14 mars 2023 : déploiement du modèle multimodal GPT-4 performant aux examens
  • 17 novembre 2023 : crise de gouvernance majeure et bref licenciement de Sam Altman
  • Septembre 2024 : sortie du modèle o1 intégrant une chaîne de pensée déductive
  • Janvier 2025 : réactivation de la centrale nucléaire Three Mile Island pour les serveurs
  • Janvier 2026 : lancement des agents autonomes exécutant des tâches web complexes
  • 2028 : planification du supercalculateur Stargate estimé à 100 milliards de dollars

Sam Altman mis à la porte par le conseil d’administration

Le conseil d’administration d’Open AI révoque Sam Altman le 17 novembre 2023 pour une rupture de confiance. Ilya Sutskever et Helen Toner votent ce renvoi pour protéger la mission de sécurité initiale. Emmett Shear accepte le poste de directeur par intérim pour une durée de 72 heures. La capitalisation boursière du secteur tech perd des milliards de dollars à l’annonce. 738 employés sur 770 signent une lettre exigeant la démission immédiate du conseil. Les négociations impliquent les plus grands fonds de la Silicon Valley tout le weekend.

Le retour de Sam Altman le 22 novembre2023 s’accompagne d’un remaniement complet de la gouvernance. Larry Summers et Bret Taylor entrent au conseil pour apporter une expertise économique et politique. L’investisseur principal obtient un siège d’observateur sans droit de vote pour surveiller ses actifs. La structure à but non lucratif perd son contrôle absolu sur la filiale commerciale. La stratégie de déploiement rapide l’emporte sur la doctrine de précaution académique stricte. Le pragmatisme économique dirige désormais la feuille de route des futurs modèles.

histoire de ChatGPT - Sam Revoqué

Une course au raisonnement infini dès 2024

Le modèle o1 nommé Strawberry sort en septembre 2024 et entame un nouvel épisode dans l’histoire de ChatGPT avec une nouvelle architecture cognitive. Le système génère des chaînes de pensée cachées pour vérifier ses étapes logiques avant de répondre. Il obtient un score de 83% sur les problèmes de mathématiques du concours AIME. Le temps de latence augmente volontairement pour un processus de déduction séquentielle.

Le taux d’hallucination sur les tâches de programmation complexe chute de manière significative. L’entraînement utilise des données synthétiques générées par d’autres modèles pour surmonter le manque de textes humains.

Le modèle IA développe un appétit d’ogre en matière d’infrastructure

Sam Altman évoque un plan d’investissement de 7 000 milliards pour les infrastructures de puces dédiées à son modèle d’intelligence artificielle. Il rencontre même les dirigeants du fabricant TSMC et de Samsung pour sécuriser les fonderies. La demande en capacité de calcul pour l’inférence dépasse l’offre mondiale de semi-conducteurs.

Les nouveaux centres de données requièrent des gigawatts d’énergie pour alimenter les racks de serveurs. La logique déductive coûte cent fois plus cher en électricité qu’une simple requête web. Le secteur bascule vers une industrie lourde consommatrice de ressources physiques massives.

Le modèle IA confronté à de nombreux défis

La consommation électrique des data centers dédiés à l’IA double chaque année depuis 2023. Le partenaire cloud réactive l’unité 1 de la centrale nucléaire de Three Mile Island. Cet accord de 20 ans garantit 835 mégawatts d’énergie décarbonée pour les seuls besoins du calcul.

Les projets de petits réacteurs modulaires (SMR) attirent des milliards d’investissements privés. La disponibilité du réseau électrique devient le facteur limitant pour la construction de nouvelles usines. Les émissions de CO2 des géants de la tech augmentent de 30% malgré les promesses.

Une concurrence de plus en plus rude

Google DeepMind lance Gemini 1.5 Pro avec une fenêtre de contexte d’un million de tokens. Meta publie Llama 3.1 405B en open source pour casser le monopole des modèles fermés. La startup française Mistral AI sort son modèle Large optimisé pour l’Europe.

La Chine déploie des modèles Qwen performants malgré les restrictions sur l’exportation des puces. La compétition technique force chaque acteur à doubler ses investissements en capital (CAPEX). L’innovation technologique dépend désormais de la capacité à bétonner et à électrifier.

histoire de ChatGPT - central nucléaire

L’histoire de ChatGPT continue sur d’autres fronts en 2026

L’agent autonome Operator arrive début 2026 pour exécuter des actions concrètes sur l’ordinateur. Il navigue sur le web via un navigateur sans tête pour réserver des vols. Le modèle interprète le DOM des pages web pour cliquer sur les bons boutons. L’humain valide uniquement l’étape finale du paiement bancaire pour sécuriser la transaction. Les taux de réussite sur les benchmarks d’agents comme GAIA dépassent les 40%. La friction entre l’interface chat et l’application tierce disparaît totalement.

Le projet de supercalculateur Stargate prévoit un budget de 100 milliards de dollars pour 2028. Le site au Texas ou en Arizona hébergera des millions de puces de prochaine génération. La puissance de calcul visée dépasse de cinq ordres de grandeur les clusters actuels. Le refroidissement liquide des serveurs nécessite des millions de litres d’eau par jour. Cette infrastructure critique devient un actif stratégique comparable à un porte-avions nucléaire. La faisabilité technique repose sur des percées dans l’interconnexion optique des puces.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥