PyTorch 2.0

PyTorch 2.0 enfin disponible : tout sur la nouvelle version de l’outil phare du machine learning

PyTorch 2.0 est une version du populaire framework de deep learning open source. Cette version introduit des améliorations significatives et une meilleure compatibilité avec les GPUs multicœurs. Les développeurs peuvent également utiliser le nouvel outil de profilage pour optimiser les performances de leurs modèles.

🔥 Nous recommandons Gemini

 

Gemini transforme la manière dont vous interagissez avec l’IA, en combinant texte, images, audio et vidéo pour offrir des réponses et solutions multimodales. Que ce soit pour la rédaction, la programmation, ou l’analyse de données, Gemini fournit des outils puissants pour optimiser votre productivité. Disponible dans plusieurs produits Google comme Gmail, Google Docs, et Google Workspace, Gemini facilite la collaboration et l’efficacité au sein des équipes, quelle que soit leur taille.

 PyTorch, l’un des outils les plus populaires pour le machine learning, vient de sortir sa version 2.0. Cette nouvelle version offre de nombreuses améliorations et fonctionnalités passionnantes pour les scientifiques des données, les développeurs et les chercheurs. Avec des fonctionnalités de pointe, PyTorch 2.0 pourrait bien être la réponse aux défis complexes du deep learning.

PyTorch 2.0 : une avancée majeure pour l’apprentissage automatique

PyTorch 2.0 est désormais disponible pour tous après plusieurs mois de prévisualisation. Cette version représente une avancée importante de PyTorch 1.0. Lancé à l’origine par Facebook en 2018, le projet a bénéficié d’améliorations incrémentales au fil des années. C’est l’un des frameworks open source offrant un calcul de tenseurs pour l’apprentissage profond

La création de la PyTorch Foundation en septembre 2022 avait pour but de favoriser la collaboration et les contributions en instaurant une gouvernance plus transparente.

Les programmeurs ont travaillé ardemment pour contribuer avec de nouveaux codes et fonctionnalités à l’initiative open source. Dans ce cadre, le projet a bénéficié de la participation de 428 contributeurs différents. PyTorch 2.0 se concentre sur la performance, et la nouvelle fonctionnalité « Accelerated Transformers » en est un exemple notable.

Les modèles de langage modernes et l’IA générative sont largement alimentés par ces transformateurs essentiels. En effet, ils aident les modèles de langage à faire le rapprochement entre divers concepts. L’accélération de ces transformateurs améliore considérablement la vitesse d’apprentissage des modèles et leur performance globale. 

Avec PyTorch 2.0, les développeurs peuvent désormais créer des modèles d’apprentissage profond plus performants et plus rapides. Cela permettra le développement d’applications encore plus innovantes en intelligence artificielle.

YouTube video

Intel : un fervent partisan de PyTorch 2.0

PyTorch 2.0 est soutenu par de nombreux contributeurs, dont Intel, la société leader dans la fabrication de silicium. Le géant des processeurs informatiques est un fervent partisan du logiciel libre et de l’adoption de PyTorch à un modèle de gouvernance ouvert. En tant que principal contributeur de PyTorch, Intel s’engage activement auprès de la communauté.

Par ailleurs, même si l’IA et le ML sont souvent associés aux GPU, les CPU jouent également un rôle important. C’est l’une des raisons pour laquelle Intel investit beaucoup dans ce composant. PyTorch dispose de fonctionnalités qui autorisent la sélection optimale de la méthode de quantification adaptée à une plateforme d’enseignement spécifique.

Le backend unifié développé par Intel reste compatible avec la méthode FBGEMM. Cette dernière est une bibliothèque de calcul matriciel développée par Facebook pour les architectures CPU x86. De plus, la technologie oneDNN d’Intel est disponible pour la bibliothèque open source TensorFlow dédiée à l’apprentissage automatique. En somme, Intel apporte une contribution significative au développement de PyTorch 2.0 en fournissant des outils et des technologies pour améliorer les capacités de la bibliothèque.

Des améliorations techniques massives mais discrètes

Depuis la présentation de PyTorch 2.0 en 2023, de nouvelles versions se sont enchaînées. Pourtant, cette itération reste un tournant majeur pour le framework. Cela grâce à une série d’évolutions techniques souvent invisibles, mais déterminantes. Avec plus de 4 500 modifications issues de 428 contributeurs, cette version majeure dépasse largement la simple optimisation de surface. 

Elle s’accompagne également de mises à jour coordonnées de TorchVision, TorchAudio et TorchText. Pour TorchX, il passe en support communautaire. L’écosystème entier avance d’un même pas.

Au cœur de la transition, le compilateur torch.compile incarne l’évolution la plus stratégique. Il repose sur une architecture complète,TorchDynamo, AOTAutograd, PrimTorch et TorchInductor, qui capture le code. Mais aussi qui restructure l’autograd et génère des kernels plus efficaces. Le tout reste entièrement rétrocompatible. Ce qui permet aux développeurs d’accélérer leurs modèles sans toucher à leur code.

Les Transformers profitent aussi de cette refonte, grâce à plusieurs implémentations optimisées du scaled dot-product attention. PyTorch sélectionne automatiquement la variante la plus performante. Ce qui améliore nettement les modèles génératifs comme nanoGPT. Sur Mac, le backend MPS franchit un cap avec plus de 300 opérateurs désormais pris en charge. Cela facilite l’usage local de modèles comme Stable Diffusion ou YOLOv5.

FAQ

Quand PyTorch 2.0 est-il sorti ?

PyTorch 2.0 est sorti officiellement en mars 2023, après plusieurs mois en préversion. Cette version marque un tournant majeur grâce à l’arrivée du compilateur torch.compile.

PyTorch 2.0 est-il compatible avec les anciens modèles PyTorch ?

Oui. PyTorch 2.0 reste entièrement compatible avec la syntaxe et les projets existants.
Vous pouvez continuer à utiliser le mode “eager” sans rien changer.

Qu’est-ce que PyTorch 2.0 change pour la recherche en IA ?

Le framework devient plus prévisible, plus rapide et mieux optimisé pour les Transformers, l’IA générative et les LLMs. Les chercheurs profitent d’un code plus propre, d’un graphe plus stable et d’un compilateur plus transparent.

Est-ce que PyTorch vaut encore la peine d’être appris en 2025 ?

Oui, absolument. En 2025, PyTorch reste le framework incontournable du deep learning. Non seulement il domine toujours la recherche, mais il alimente aussi la plupart des modèles open source. Il sert de base aux Transformers modernes. C’est même un choix privilégié pour l’entraînement sur mesure comme pour les projets avancés menés en entreprise ou en milieu académique.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥