Le logiciel AI Enterprise de NVIDIA présenté au Supercomputing ’23 connecte l’informatique accélérée à de grands cas d’utilisation de modèles de langage.
Lors de la conférence Supercomputing ’23 à Denver le 13 novembre, NVIDIA a annoncé la disponibilité étendue de la superpuce NVIDIA GH200 Grace Hopper pour le calcul haute performance et des systèmes HGX H200 et des instances cloud pour la formation en IA.
Sauter à:
Le supercalculateur NVIDIA HGX GH200 améliore les charges de travail de l’IA générative et du calcul haute performance
La plate-forme de calcul intensif HGX GH200, construite sur le GPU NVIDIA H200 Tensor Core, sera disponible auprès des fabricants de serveurs et des fournisseurs de matériel partenaires de NVIDIA. Le HGX GH200 devrait commencer à être expédié par les fournisseurs et fabricants de cloud au deuxième trimestre 2024.
Amazon Web Services, Google Cloud, Microsoft Azure, CoreWeave, Lambda, Vultr et Oracle Cloud Infrastructure proposeront des instances basées sur H200 en 2024.
NVIDIA HGX H200 présente les caractéristiques suivantes :
- Nvidia H200 Tenseur GPU de base pour les charges de travail d’IA générative et de calcul haute performance qui nécessitent d’énormes quantités de mémoire (141 Go de mémoire à 4,8 téraoctets par seconde).
- Doubler la vitesse d’inférence activée Lama 2un LLM de 70 milliards de paramètres, par rapport au NVIDIA H100.
- Interopérable avec la superpuce NVIDIA GH200 Grace Hopper avec HBM3e.
- Déployable dans tout type de centre de données, y compris sur des serveurs avec les partenaires existants ASRock Rack, ASUS, Dell Technologies, Eviden, GIGABYTE, Hewlett Packard Enterprise, Ingrasys, Lenovo, QCT, Supermicro, Wistron et Wiwynn.
- Peut fournir une inférence et une formation pour les plus grands modèles LLM au-delà de 175 milliards de paramètres.
- Plus de 32 pétaflops de calcul d’apprentissage profond FP8 et 1,1 To de mémoire globale à large bande passante.
« Pour créer de l’intelligence avec des applications d’IA générative et HPC, de grandes quantités de données doivent être traitées efficacement à grande vitesse à l’aide d’une mémoire GPU volumineuse et rapide », a déclaré Ian Buck, vice-président de l’hyperscale et du HPC chez NVIDIA, dans un communiqué. communiqué de presse.
La puce GH200 de NVIDIA est adaptée au calcul intensif et à la formation en IA
NVIDIA proposera désormais des supercalculateurs HPE Cray EX2500 avec la puce GH200 (Figure A) pour une formation améliorée en calcul intensif et en IA. HPE a annoncé une solution de calcul intensif pour IA générative constitué en partie de la configuration du supercalculateur HPE Cray EX2500 de NVIDIA.
Figure A

Le GH200 comprend des architectures de processeur NVIDIA Grace et de GPU Hopper basées sur Arm utilisant la technologie d’interconnexion NVIDIA NVLink-C2C. Le GH200 sera intégré aux systèmes de Dell Technologies, Eviden, Hewlett Packard Enterprise, Lenovo, QCT et Supermicro, a annoncé NVIDIA lors du Supercomputing ’23.
VOIR : NVIDIA a annoncé l’IA formation en tant que service en juillet (TechRepublic)
« Les organisations adoptent rapidement l’IA générative pour accélérer les transformations commerciales et les avancées technologiques », a déclaré Justin Hotard, vice-président exécutif et directeur général du HPC, de l’IA et des laboratoires chez HPE, dans un blog. poste. « En travaillant avec NVIDIA, nous sommes ravis de proposer une solution complète de supercalcul pour l’IA générative, alimentée par des technologies telles que Grace Hopper, qui permettra aux clients d’accélérer facilement la formation et le réglage de modèles d’IA à grande échelle à de nouveaux niveaux d’efficacité.
Que peut permettre le GH200 ?
Des projets comme celui de HPE montrent que le calcul intensif a des applications pour la formation à l’IA générative, qui pourraient être utilisées dans l’informatique d’entreprise. Le GH200 interagit avec la suite logicielle NVIDIA AI Enterprise pour les charges de travail telles que la parole, les systèmes de recommandation et l’inférence hyperscale. Il pourrait être utilisé conjointement avec les données d’une entreprise pour exécuter de grands modèles de langage formés sur les données de l’entreprise.
NVIDIA noue de nouveaux partenariats avec des centres de recherche en supercalcul
NVIDIA a annoncé des partenariats avec des centres de calcul intensif du monde entier. Le supercalculateur scientifique JUPITER du Centre de calcul scientifique de Jülich en Allemagne utilisera les superpuces GH200. JUPITER sera utilisé pour créer des modèles de base d’IA pour la recherche sur le climat et la météorologie, la science des matériaux, la découverte de médicaments, l’ingénierie industrielle et l’informatique quantique pour la communauté scientifique. Le supercalculateur Vista du Texas Advanced Computing Center et le prochain ordinateur de l’Université de Bristol Supercalculateur Isambard-AI utilisera également les superpuces GH200.
Une variété de fournisseurs de cloud offrent un accès au GH200
Les fournisseurs de cloud Lambda et Vultr proposent désormais NVIDIA GH200 en accès anticipé. Oracle Cloud Infrastructure et CoreWeave prévoient de proposer des instances NVIDIA GH200 à l’avenir, à partir du premier trimestre 2024 pour CoreWeave ; Oracle n’a pas précisé de date.