MLPerf est un benchmark permettant d’évaluer la vitesse des logiciels et appareils de Machine Learning. Il est développé par un groupe formé d’entreprises telles que Google et Intel et des chercheurs d’universités prestigieuses comme Harvard et Oxford. L’objectif de cet outil est de permettre d’améliorer les performances des produits Machine Learning.
L’intelligence artificielle et le Machine Learning sont de plus utilisés par les entreprises de toutes les industries. Cependant, pour exploiter pleinement le potentiel de ces technologies, il est nécessaire de développer du matériel et des logiciels plus rapides. C’est la raison pour laquelle MLPerf vient d’être créé par un groupe de leaders industriels notamment composé de Google, Intel, Baidu, AMD, et des universités d’Harvard, Stanford et Berkeley.
MLPerf se présente comme un benchmark permettant de mesurer la vitesse des logiciels et du matériel de Machine Learning. Pour ce faire, l’outil se base sur le temps que prennent les réseaux de neurones artificiels pour effectuer des tâches telles que la reconnaissance d’objet, la traduction de langages ou jouer une partie de jeu de Go.
MLPerf : un benchmark Machine Learning inspiré par SPEC
L’objectif est de permettre aux Data Scientists de mieux comprendre les performances de leurs logiciels et de leur matériel afin de pouvoir les améliorer. Cet outil est inspiré par le benchmark SPEC (Standard Performance Evaluation Corporation), créé en 1988 pour mesurer la vitesse des ordinateurs traditionnels. Suite au lancement de cette solution, les performances des processeurs avaient été multipliées par 1,6 en 15 ans.
MLPerf reprend d’ailleurs des éléments de SPEC et d’autres benchmarks tels que SORT, DeepBench et DAWNBench. Tout comme ces outils, MLPerf vise à catalyser les améliorations technologiques en alignant les efforts de recherche et de développement et en guidant les décisions d’investissement.
Développer à l’aide du Agile Framework, MLPerf profiter d’améliorations rapides. A partir du 31 juillet, les vendeurs de hardware et les fournisseurs de frameworks logiciels pourront présenter leurs résultats de benchmarking sur le site officiel mlperf.org.
- Partager l'article :