L’une des grandes annonces lors de l’événement Data Center d’AMD il y a quelques semaines a été l’annonce de son accélérateur de calcul basé sur CDNA2, l’Instinct MI250X. Le MI250X utilise deux puces de calcul graphique MI200 sur le nœud de fabrication N6 de TSMC, ainsi que quatre modules HBM2E par puce, en utilisant une nouvelle conception de boîtier « 2.5D » qui utilise un pont entre la puce et le substrat pour une connectivité hautes performances et basse consommation. Il s’agit du GPU entrant dans Frontier, l’un des systèmes Exascale américains qui doit être mis sous tension très prochainement. Lors de la conférence Supercomputing cette semaine, HPE, sous la marque HPE Cray, a présenté l’une de ces lames, ainsi qu’un cliché frontal complet du MI250X. Un grand merci à Patrick Kennedy de ServeTheHome pour avoir partagé ces images et nous avoir autorisé à les republier.

La puce MI250X est un boîtier calé dans un facteur de forme OAM. OAM signifie OCP Accelerator Module, qui a été développé par l’Open Compute Project (OCP) – un organisme de normalisation de l’industrie pour les serveurs et le calcul de performance. Et c’est la norme de facteur de forme d’accélérateur que les partenaires utilisent, en particulier lorsque vous en intégrez beaucoup dans un système. Huit d’entre eux, pour être exact.

Il s’agit d’une demi-lame 1U, comportant deux nœuds. Chaque nœud est un processeur AMD EPYC « Trento » (c’est une version IO personnalisée de Milan utilisant Infinity Fabric) associé à quatre accélérateurs MI250X. Tout est refroidi par liquide. AMD a déclaré que le MI250X peut aller jusqu’à 560 W par accélérateur, donc huit d’entre eux plus deux processeurs pourraient signifier que cette unité nécessite 5 kilowatts d’alimentation et de refroidissement. S’il ne s’agit que d’une demi-lame, nous parlons ici d’un calcul sérieux et d’une densité de puissance.

Chaque nœud semble relativement autonome – le processeur sur la droite ici n’est pas à l’envers étant donné que les broches arrière du socket ne sont pas visibles, mais il est également refroidi par liquide. Ce qui ressemble à quatre caloducs en cuivre, deux de chaque côté du processeur, est en fait une configuration mémoire complète à 8 canaux. Ces serveurs n’ont pas d’alimentation électrique, mais ils sont alimentés par un fond de panier unifié dans le rack.

Les connecteurs arrière ressemblent à ceci. Chaque rack de nœuds Frontier utilisera la structure d’interconnexion Slingshot de HPE pour évoluer sur l’ensemble du supercalculateur.

Des systèmes comme celui-ci sont sans aucun doute sur-conçus dans un souci de fiabilité durable – c’est pourquoi nous avons autant de refroidissement que possible, suffisamment de phases de puissance pour un accélérateur de 560 W, et même avec cette image, vous pouvez voir ces cartes mères de base l’OAM se connecte facilement à 16 couches, sinon 20 ou 24. Pour référence, une carte mère grand public économique d’aujourd’hui peut n’avoir que quatre couches, tandis que les cartes mères passionnées en ont 8 ou 10, parfois 12 pour HEDT.

Lors de la conférence de presse mondiale, le président principal et professeur de HPC de renommée mondiale, Jack Dongarra, a suggéré que Frontier est sur le point d’être mis sous tension pour devenir l’un des premiers systèmes exascale aux États-Unis. Il n’a pas carrément dit qu’il battrait le supercalculateur Aurora (Sapphire Rapids + Ponte Vecchio) au titre de premier, car il n’a pas la même vision de ce système, mais il semblait plein d’espoir que Frontier soumette un 1+ ExaFLOP score à la liste TOP500 en juin 2022.

Un grand merci à Patrick Kennedy et ServeTheHome pour l’autorisation de partager ses images.