3 août 2020

Le supercalculateur de Google et les GPU Nvidia battent des records de performance en matière d’IA

Google a déclaré avoir construit le superordinateur de formation à l’apprentissage machine (ML) le plus rapide du monde, qui a battu des records de performance en matière d’IA dans six des huit principaux benchmarks MLPerf du secteur.

Grâce à ce superordinateur, ainsi qu’à la toute dernière puce TPU (Tensor Processing Unit), Google a établi de nouveaux records de performance.

“Nous avons obtenu ces résultats avec des implémentations de modèles de ML dans TensorFlow, JAX et Lingvo. Quatre des huit modèles ont été formés à partir de zéro en moins de 30 secondes”, a déclaré Naveen Kumar, de Google AI, dans un communiqué mercredi.

Pour mettre cela en perspective, il a fallu plus de trois semaines pour former l’un de ces modèles sur l’accélérateur matériel le plus avancé disponible en 2015.

Le dernier supercalculateur TPU de Google peut former le même modèle presque cinq ordres de grandeur plus rapidement, cinq ans plus tard seulement.

Les modèles MLPerf sont choisis pour être représentatifs des charges de travail de l’apprentissage machine de pointe qui sont courantes dans l’industrie et le monde universitaire.

Le super-ordinateur utilisé par Google pour le tour d’entraînement de MLPerf est quatre fois plus grand que le “Cloud TPU v3 Pod” qui a établi trois records lors de la précédente compétition.

Le géant du graphisme Nvidia a déclaré qu’il a également fourni les performances les plus rapides au monde en matière de formation à l’intelligence artificielle (IA) parmi les puces disponibles dans le commerce, un exploit qui aidera les grandes entreprises à relever les défis les plus complexes en matière d’IA, de science des données et de calcul scientifique.

Les GPU Nvidia A100 et les systèmes DGX SuperPOD ont été déclarés les produits les plus rapides au monde pour la formation à l’IA, selon les benchmarks MLPerf.

Le GPU A100 Tensor Core a démontré les performances les plus rapides par accélérateur sur les huit benchmarks MLPerf.

“Les vrais gagnants sont les clients qui appliquent cette performance aujourd’hui pour transformer leurs entreprises plus rapidement et de manière plus rentable avec l’IA”, a déclaré la société dans un communiqué.

Le A100, le premier processeur basé sur l’architecture Nvidia Ampere, est arrivé sur le marché plus rapidement que tous les GPU Nvidia précédents.

Les principaux fournisseurs mondiaux de cloud computing contribuent à répondre à la forte demande de Nvidia A100, tels que Amazon Web Services (AWS), Baidu Cloud, Microsoft Azure et Tencent Cloud, ainsi que des dizaines de grands fabricants de serveurs, dont Dell Technologies, Hewlett Packard Enterprise, Inspur et Supermicro.

“Les utilisateurs du monde entier utilisent l’A100 pour relever les défis les plus complexes en matière d’IA, de science des données et de calcul scientifique”, a déclaré la société.

–IANS

na/

(Seuls le titre et l’image de ce rapport ont pu être retravaillés par le personnel de Business Standard ; le reste du contenu est généré automatiquement à partir d’un flux syndiqué).