Afin de donner aux développeurs d’IA et aux chercheurs scientifiques les performances de mise en réseau les plus rapides disponibles sur leurs postes de travail, Nvidia a présenté la prochaine génération de son Nvidia Mellanox 400G InfiniBand.
Nvidia Mellanox 400G InfinBand accélère les travaux dans des domaines tels que la découverte de médicaments, la recherche sur le climat et la génomique grâce à un bond spectaculaire des performances offertes sur la seule plate-forme informatique en réseau entièrement déchargeable au monde.
La septième génération de Mellanox InfiniBand offre aux utilisateurs une latence ultra-faible et double le débit de données avec NDR 400 Gb / s tout en ajoutant une accélération supplémentaire grâce aux nouveaux moteurs de calcul en réseau Nvidia.
Les principaux fabricants d’infrastructures au monde, notamment Atos, Dell Technologies, Fujitsu, Gigabyte, Inspur, Lenovo et Supermicro, prévoient d’intégrer Nvidia Mellanox 400G InfiniBand dans leurs solutions d’entreprise existantes et leurs offres HPC. Dans le même temps, les principaux partenaires d’infrastructure de stockage tels que DDN et IBM Storage offriront également une assistance étendue.
Sommaire
Nvidia Mellanox 400G InfiniBand
La dernière annonce de Nvidia s’appuie sur l’avance de Mellanox InfiniBand en tant que solution la plus robuste du secteur pour le supercalcul de l’IA et le Nvidia Mellanox 400G InfiniBand offre trois fois la densité des ports de commutation et multiplie par 32 la puissance d’accélération de l’IA. En outre, il augmente le débit bidirectionnel agrégé du système de commutation de cinq fois à 1,64 pétabits par seconde, ce qui permet aux utilisateurs d’exécuter des charges de travail plus importantes avec moins de contraintes.
Étant donné que les opérations de déchargement sont cruciales pour les charges de travail d’IA, la technologie Nvidia Mellanox Sharp de troisième génération permet aux opérations de formation en apprentissage profond d’être déchargées et accélérées par le réseau InfiniBand, ce qui se traduit par une puissance d’accélération de l’IA 32 fois supérieure. En combinant la pile logicielle Nvidia Magnum IO avec le Nvidia Mellanox 400G InfiniBand, les développeurs et les chercheurs en IA peuvent bénéficier d’un calcul scientifique accéléré prêt à l’emploi.
Les commutateurs de périphérie basés sur l’architecture Mellanox InfiniBand sont capables de transporter un débit bidirectionnel agrégé de 51,2 To / s avec une capacité de plus de 6,65 milliards de paquets par seconde. Les commutateurs modulaires basés sur Mellanox InfiniBand, quant à eux, peuvent transporter jusqu’à un débit bidirectionnel agrégé de 1,64 pétabits par seconde, ce qui est cinq fois plus élevé que la dernière génération.
Le vice-président principal des réseaux chez Nvidia Gilad Shainer a expliqué dans un communiqué de presse comment le Nvidia Mellanox 400G InfiniBand peut aider les développeurs et les chercheurs d’IA traitant des applications de plus en plus complexes:
«Le travail le plus important de nos clients repose sur l’IA et des applications de plus en plus complexes qui exigent des réseaux plus rapides, plus intelligents et plus évolutifs. Le débit massif et les moteurs d’accélération intelligents de NVIDIA Mellanox 400G InfiniBand permettent aux infrastructures de cloud HPC, IA et hyperscale d’atteindre des performances inégalées avec moins de coûts et de complexité. »