PyTorch 2.0

PyTorch 2.0 enfin disponible : tout sur la nouvelle version de l’outil phare du machine learning

PyTorch 2.0 est la dernière version du populaire framework de deep learning open source. Cette version introduit des améliorations significatives et une meilleure compatibilité avec les GPUs multicœurs. Les développeurs peuvent également utiliser le nouvel outil de profilage pour optimiser les performances de leurs modèles.

PyTorch, l'un des outils les plus populaires pour le machine learning, vient de sortir sa version 2.0. Cette nouvelle version offre de nombreuses améliorations et fonctionnalités passionnantes pour les scientifiques des données, les développeurs et les chercheurs. Avec des fonctionnalités de pointe, PyTorch 2.0 pourrait bien être la réponse aux défis complexes du deep learning.

PyTorch 2.0 : une avancée majeure pour l'apprentissage automatique

PyTorch 2.0 est désormais disponible pour tous après plusieurs mois de prévisualisation. Cette version représente une avancée importante de PyTorch 1.0. Lancé à l'origine par en 2018, le projet a bénéficié d'améliorations incrémentales au fil des années. C'est l'un des frameworks open source offrant un calcul de tenseurs pour l'apprentissage profond

La création de la PyTorch Foundation en septembre 2022 avait pour but de favoriser la collaboration et les contributions en instaurant une gouvernance plus transparente.

Les programmeurs ont travaillé ardemment pour contribuer avec de nouveaux codes et fonctionnalités à l'initiative open source. Dans ce cadre, le projet a bénéficié de la participation de 428 contributeurs différents. PyTorch 2.0 se concentre sur la performance, et la nouvelle fonctionnalité « Accelerated Transformers » en est un exemple notable.

Les modèles de langage modernes et l'IA générative sont largement alimentés par ces transformateurs essentiels. En effet, ils aident les modèles de langage à faire le rapprochement entre divers concepts. L'accélération de ces transformateurs améliore considérablement la vitesse d'apprentissage des modèles et leur performance globale. Avec PyTorch 2.0, les développeurs peuvent désormais créer des modèles d'apprentissage profond plus performants et plus rapides. Cela permettra le développement d'applications encore plus innovantes en intelligence artificielle.

YouTube video

: un fervent partisan de PyTorch 2.0

PyTorch 2.0 est soutenu par de nombreux contributeurs, dont Intel, la société leader dans la fabrication de silicium. Le géant des processeurs informatiques est un fervent partisan du logiciel libre et de l'adoption de PyTorch à un modèle de gouvernance ouvert. En tant que principal contributeur de PyTorch, Intel s'engage activement auprès de la communauté.

Par ailleurs, même si l'IA et le ML sont souvent associés aux GPU, les CPU jouent également un rôle important. C'est l'une des raisons pour laquelle Intel investit beaucoup dans ce composant. PyTorch dispose de fonctionnalités qui autorisent la sélection optimale de la méthode de quantification adaptée à une plateforme d'enseignement spécifique.

Le backend unifié développé par Intel reste compatible avec la méthode FBGEMM. Cette dernière est une bibliothèque de calcul matriciel développée par Facebook pour les architectures CPU x86. De plus, la technologie oneDNN d'Intel est disponible pour la bibliothèque open source TensorFlow dédiée à l'apprentissage automatique. En somme, Intel apporte une contribution significative au développement de PyTorch 2.0 en fournissant des outils et des technologies pour améliorer les capacités de la bibliothèque.

 

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *