Open Compute Project (OCP) a annoncé l’ajout du serveur de périphérie Wiwynn ES200 et de la carte de base GPU NVIDIA HGX-H100 à sa plate-forme.

Open Compute Project (OCP) a annoncé l’ajout du serveur de périphérie Wiwynn ES200 et de la carte de base GPU NVIDIA HGX-H100 à sa plate-forme.

Le serveur périphérique à faible profondeur de Wiwynn est conçu pour répondre à la demande croissante de puissance de calcul sur les sites périphériques, en particulier pour des applications telles que l’inférence instantanée de l’IA, l’analyse de données sur site et le traitement vidéo multicanal.

La spécification physique de la carte de base GPU HGX-H100 de NVIDIA devrait contribuer à améliorer la capacité du sous-projet OAI d’OCP à tirer parti de HGX et à développer des spécifications de plate-forme et de système rentables, à haute efficacité et évolutives pour le calcul haute performance dans les applications IA et HPC.

Serveur Edge Wiwynn ES200

Wiwynn ES200 est un serveur Edge à double socket 2U alimenté par un processeur Intel Xeon Scalable de 3e génération. Grâce à l’équilibrage NUMA, il peut fournir la puissance de calcul de chaque processeur installé pour exécuter différentes charges de travail séparément sans créer de goulots d’étranglement de communication entre les processeurs.

Il dispose également d’emplacements PCIe Gen4 x16 supplémentaires, qui peuvent être équipés de deux cartes d’extension double largeur. Cela ajoute beaucoup de flexibilité au système, ce qui le rend idéal pour les cas d’utilisation tels que l’accélération de l’inférence IA, le transcodage vidéo et l’analyse de données, ainsi que les cas d’utilisation qui nécessitent une connectivité réseau supplémentaire. Il comprend des modules de stockage flexibles, notamment EDSFF (E1.S) ou U.2 SSD et deux cartes OCP NIC 3.0, permettant à l’ES200 de produire un traitement de données local impressionnant et une connexion réseau à large bande passante.

L’ES200 est également conforme NEBS-3 et présente un facteur de forme compact à faible profondeur. De plus, Wiwynn indique qu’il peut fonctionner sans problème dans des conditions de fonctionnement difficiles et peut s’adapter à divers sites périphériques.

Spécifications du nœud de serveur Wiwynn ES200 Edge

Spécification de nœud
Processeur Processeurs évolutifs Intel Xeon de 3e génération, TDP 250 W/270 W
Prises de processeur 2
Jeu de puces Série Intel C621A
Sécurité Module de plateforme sécurisée v2.0 (en option)
Autobus système Interconnexion Intel UltraPath ; 11.2GT/s
Mémoire 16 emplacements DIMM ; DDR4 jusqu’à 3200 MT/s et jusqu’à 64 Go par DIMM ;
12 emplacements DIMM avec jusqu’à 2 DCPMM (Intel Barlow Pass)
Stockage ‧ Un emplacement de module SSD M.2 2280/22110 intégré
‧ Six U.2 (15/7 mm) ou Huit EDSFF E1.S (5,9/9,5 mm)
Emplacements d’extension Jusqu’à six emplacements PCIe Gen4 :
‧ Deux PCIe x16 FHFL double largeur + un PCIe x8 FHHL
‧ Un emplacement PCIe x16 FHHL + Deux emplacements PCIe x8 FHHL
‧ Six emplacements PCIe x8 FHHL sont facultatifs sur demande
Deux cartes réseau OCP 3.0 intégrées x16
Réseau local de gestion ‧ Un port BMC dédié GbE
Ports d’E/S ‧ Bouton d’alimentation avec LED
‧ Bouton UID avec LED
‧ Bouton RST
‧ Trois ports USB
‧ Port de gestion BMC (face avant)
‧ Port VGA (D-sub)
Spécification du châssis
Dimensions Bâti 2U ; 86(H) x 440 (L) x 450 (P) (mm)
bloc d’alimentation Enfichable à chaud, redondant (1+1) 1600W CRPS
Ventilateur Quatre rotors doubles 8038, redondants (7+1)
Lester 14.47kg
Environnement ‧ Plage de température ambiante de fonctionnement : -5 à +55 degrés Celsius

‧ Humidité relative de fonctionnement et de stockage : 10 % à 90 % (sans condensation)

‧ Plage de température de stockage : -40 à +70 degrés Celsius

Nvidia HGX-H100 Plinthe

Le NVIDIA HGX-H100 est une carte de base qui héberge huit des modules GPU Hopper les plus récents. La spécification physique de la carte de base HGX définit des éléments tels que les interfaces hôtes de dimension physique, les interfaces de gestion et de débogage. Le package de contribution de NVIDIA comprend également les spécifications physiques de la carte de base, la liste des broches d’entrée/sortie de la carte de base et une carte des broches, un dessin 2D/3D.

NVIDIA HGX-H100

La liste suivante d’OCP indique comment la contribution de NVIDIA HGX s’appuie sur leurs « quatre principes » : efficacité, évolutivité, ouverture et impact :

  • Efficacité – Il s’agit du facteur de forme de la carte de base HGX de 3e génération, et chaque génération a fourni un débit d’entraînement AI ~ 3x-5x plus élevé tout en consommant une puissance active similaire. En conséquence, la carte de base HGX est désormais la norme de facto, la plupart des hyperscalers mondiaux concevant autour de ce facteur de forme pour la formation et l’inférence de l’IA.
  • Évolutivité – À l’échelle mondiale, des centaines de milliers de systèmes HGX sont en production. Les systèmes et boîtiers pour ce facteur de forme seront stables et construits à grande échelle. La spécification HGX inclura les dimensions physiques, les interfaces de gestion pour la surveillance/le débogage, etc. pour les services à grande échelle.
  • Ouverture – Les systèmes basés sur HGX sont la plate-forme de formation à l’IA la plus courante dans le monde. De nombreux OEM/ODM ont construit des systèmes d’IA basés sur HGX. Avec la contribution de cette spécification physique HGX, le groupe OAI convergera autant que possible UBB2.0 avec la spécification HGX. Les OEM/ODM pourraient tirer parti de la même conception de système avec différents accélérateurs sur des plinthes de type UBB/HGX, telles que la même dimension de plinthe, les interfaces hôtes, les interfaces de gestion, l’alimentation électrique, etc.
  • Impact – Les plates-formes NVIDIA HGX sont devenues la norme mondiale de facto pour les plates-formes de formation en IA. L’ouverture de ce facteur de forme de carte de base HGX permet à d’autres fournisseurs d’accélérateurs d’intelligence artificielle de tirer parti de l’écosystème HGX de systèmes et de boîtiers. Cela devrait accélérer les autres fournisseurs d’IA pour tirer parti de l’infrastructure existante et adopter leurs solutions plus tôt. Cela accélère encore l’innovation dans les domaines de l’IA/HPC.

Projet de calcul ouvert (OCP)

S’engager avec StorageReview

Bulletin | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | TikTok | Flux RSS