Dans le cycle d’actualités d’aujourd’hui, Intel annonce une mise à jour de son déploiement prévu de sa plate-forme Xeon Scalable de prochaine génération connue sous le nom de Sapphire Rapids. Sapphire Rapids est la principale plate-forme derrière le futur supercalculateur Aurora et devrait prendre en charge les technologies de pointe telles que DDR5, PCIe 5.0, CXL et Advanced Matrix Extensions. L’annonce d’aujourd’hui est qu’Intel réaffirme son engagement à commercialiser Sapphire Rapids pour une large disponibilité au cours du premier semestre 2022, tandis que les premiers clients utilisent actuellement des premiers silicium pour les tests et l’optimisation.

Dans un article de blog de Lisa Spelman, CVP et directrice générale d’Intel Xeon and Memory Group, Intel prend de l’avance sur la vague d’actualités en annonçant qu’un temps de validation supplémentaire est incorporé dans le cycle de développement de produits pour aider les partenaires et les clients de premier plan à rationaliser optimisations et finalement déploiement. À cette fin, Intel travaille aujourd’hui avec ces partenaires de premier plan avec les premiers siliciums, généralement ES0 ou ES1 en utilisant les désignations internes d’Intel, ces partenaires aidant à valider le matériel pour les problèmes par rapport à leurs charges de travail étendues. Comme l’a déclaré l’ancien CTO d’Intel Mike Mayberry lors de la conférence VLSI 2020, les partenaires hyperscale d’Intel finissent par tester 10 à 100 fois plus de cas d’utilisation et de cas périphériques que ce qu’Intel peut valider, donc travailler avec eux devient une partie essentielle du cycle de lancement.

Au fur et à mesure que la validation se poursuit, Intel travaille avec ses partenaires de premier plan pour leurs objectifs monétisables spécifiques et les fonctionnalités qu’ils ont demandées, de sorte que lorsque viendra le temps de la production (T1 2022) et de la montée en puissance (T2 2022), et un lancement public complet ( 1H 2022), ces partenaires clés bénéficient déjà d’une étroite collaboration avec Intel. Intel a déclaré qu’à mesure que de plus en plus d’informations sur Sapphire Rapids deviendront publiques, comme lors d’événements à venir comme Hot Chips en août ou le propre événement d’Intel en octobre, l’accent sera mis sur les références et les mesures sur lesquelles les clients s’appuient pour les flux de travail monétisables, qui est en partie ce à quoi ce cycle de déploiement aide.

Les partenaires de premier plan obtiennent le premier silicium 12 mois à l’avance, puis déploient le silicium final avant le lancement, ce n’est pas nouveau. Cela se produit pour tous les processeurs de serveur, quelle que soit la source, donc lorsque nous obtenons enfin un lancement public approprié d’un produit, ces hyperscalers et clients HPC l’ont déjà depuis six mois. Pendant ce temps, ces relations permettent aux fournisseurs de processeurs d’optimiser les bits finaux auxquels les clients grand public/entreprise sont souvent plus sensibles.

Il convient de noter qu’un lancement 2022 H1 de Sapphire Rapids n’a pas toujours été la date dans les présentations. En 2019, Ice Lake Xeon était un produit 2020 et Sapphire Rapids était un produit 2021. Ice Lake a glissé jusqu’en 2021, mais Intel faisait toujours la promotion qu’il livrerait Sapphire Rapids au supercalculateur Aurora d’ici la fin de 2021. Dans une interview avec Lisa Spelman en avril de cette année, nous avons posé des questions sur la proximité du Ice Lake retardé. aux rapides Sapphire. Lisa a déclaré qu’ils s’attendaient à un suivi rapide avec les deux plates-formes – AnandTech a l’impression que parce qu’Aurora a été retardé à plusieurs reprises et que la «fin 2021» était une partie difficile du dernier contrat d’Intel avec Argonne sur la machine pour les principaux livrables. Au Computex 2021, Spelman a annoncé dans le discours d’Intel que Sapphire Rapids serait lancé en 2022, et l’annonce d’aujourd’hui le réitère. Nous nous attendons à ce que la disponibilité générale soit plus importante dans le délai de fin Q2/Q3.

Il arrive toujours plus tard que prévu, mais il espace un peu plus la transition entre Ice Lake et Sapphire Rapids. Que cela constitue un délai supplémentaire dépend de votre point de vue ; Intel soutient qu’il ne s’agit que d’une extension de validation, alors que nous sommes conscients que d’autres peuvent attribuer le commentaire à quelque chose de plus fondamental, comme la fabrication. Ce n’est un secret pour personne que le niveau de capacité de fabrication d’Intel pour son processus 10 nm, ou en particulier l’ESF 10 nm sur lequel Sapphire Rapids est construit, n’est pas bien connu au-delà des « trois usines de rampe » annoncées plus tôt cette année. Intel semble être d’avis qu’il est logique pour eux de travailler plus étroitement avec leurs principaux clients hyperscalers et HPC, qui représentent plus de 50 à 60 % de tous les Xeon vendus dans la génération précédente, en priorité avant un lancement plus large sur le marché pour se concentrer sur leurs workflows monétisables. (Oui, je me rends compte que j’ai dit monétisable plusieurs fois maintenant ; en fin de compte, c’est une fonction de génération de revenus.)

Dans le cadre de l’annonce d’aujourd’hui, Intel a également levé le voile sur deux nouvelles fonctionnalités de Sapphire Rapids.

Le premier est Extensions matricielles avancées (AMX), qui a déjà été annoncé techniquement, et il existe déjà de nombreux documents de programmation à ce sujet, mais Intel confirme aujourd’hui qu’AMX et Sapphire Rapids sont le premier couple pour cette technologie. L’objectif d’AMX est la matrice mutliply, permettant plus de performances de calcul d’apprentissage automatique pour la formation et l’inférence dans les principaux «marchés mégatendances» d’Intel, tels que l’IA, la 5G, le cloud et autres. Un certain niveau de performance fait également partie des divulgations AMX aujourd’hui – Intel déclare que le premier silicium Sapphire Rapids avec AMX, à un niveau matériel pur, est permettant au moins une augmentation des performances 2x par rapport à Ice Lake Xeon silicium avec AVX512. Intel a tenu à souligner qu’il s’agit du premier silicium sans aucune amélioration logicielle supplémentaire sur Sapphire Rapids. AMX fera partie du portefeuille DL Boost de nouvelle génération d’Intel au lancement.

La deuxième caractéristique est qu’Intel intègre un Accélérateur de flux de données (DSA). Intel dispose également de la documentation sur le DSA sur le Web depuis 2019, indiquant qu’il s’agit d’un accélérateur de copie et de transformation de données hautes performances pour la diffusion en continu de données depuis le stockage et la mémoire ou vers d’autres parties du système via une unité matérielle de remappage DMA/IOMMU. DSA a été une demande de clients hyperscaler spécifiques, qui cherchent à le déployer dans leur propre infrastructure cloud interne, et Intel tient à souligner que certains clients utiliseront DSA, certains utiliseront la nouvelle unité de traitement d’infrastructure d’Intel, tandis que d’autres utiliseront les deux, selon le niveau d’intégration ou d’abstraction qui les intéresse.

Hier, nous avons appris qu’Intel proposera des versions de Sapphire Rapids avec HBM intégré pour chaque client, le premier déploiement de celles-ci allant à Aurora. Comme mentionné, Intel confirme qu’ils divulgueront plus de détails lors de Hot Chips en août et lors de l’événement Innovation d’Intel en octobre. Selon le communiqué de presse d’aujourd’hui, il pourrait également y avoir apparemment des détails sur l’architecture avant cette date.

Lecture réelle