Avec le lancement de la plate-forme évolutive Xeon de troisième génération d’Intel, basée sur des processeurs Ice Lake 10 nm, Intel a mis à niveau une partie de l’entreprise qui fait le plus gros bénéfice. Au cours des dernières années, Intel est passé d’une entreprise centrée sur le processeur à une entreprise centrée sur les données, tirant parti du fait que de plus en plus de ses gammes de produits sont conçues dans l’esprit du centre de données. Avec le lancement de la nouvelle plate-forme de serveur la semaine dernière, Intel se prépare pour une pile d’entreprise basée sur 10 nm, PCIe 4.0 et l’accélération cryptographique.

Outre les nouveaux 10 nm Ice Lake Xeons, Intel dispose également de mémoire persistante Optane, de FPGA 200 Gigabit Ethernet, Stratix et Agilex, de SSD hautes performances avec 3D NAND, de stockage basé sur Optane, de matériel AI avec Movidius et Habana, commutation réseau Tofino, technologie eASIC , et à venir Xe graphique. Ce portefeuille combiné, selon Lisa Spelman, CVP d’Intel et directeur général du groupe Xeon and Memory, place la société dans une position unique pour offrir des solutions que la concurrence ne peut pas permettre.

Dans cette interview, nous posons des questions sur les offres d’Intel, la portée des nouvelles fonctionnalités d’accélération, ce qui compte vraiment pour les clients d’Intel et la manière dont Intel se rapproche de sa feuille de route compte tenu du suivi rapide de Ice Lake à Sapphire Rapids.


Lisa Spelman

Intel


Ian Cutress

AnandTech

Lisa Spelman est catégoriquement ce que j’appelle une «Intel Lifer», ayant passé près de 20 ans dans l’entreprise. Son rôle a beaucoup évolué pour devenir l’un des visages de l’activité Data Center d’Intel et du portefeuille de produits Xeon, discutant en détail des aspects techniques des gammes de produits mais aussi de la stratégie commerciale et marketing. Ses rôles précédents ont inclus celui d’analyste interne, de conseiller technique auprès du CIO, de directeur des services à la clientèle et de directeur du marketing du centre de données.

IC: Ice Lake Xeon est enfin là avec sa conception de noyau de Sunny Cove. Il existe des optimisations pour l’industrie des serveurs, pour l’IA, jusqu’à 40 cœurs, de nouvelles fonctionnalités de sécurité et des performances de mémoire plus élevées. Historiquement, Intel a amené ses processeurs Xeon Scalable à tous les coins du marché – est-ce toujours vrai avec la nouvelle plate-forme Ice Lake Xeon?

LS: Je pense que vous avez découvert certaines de ces fonctionnalités et avantages clés. Ce que nous faisons ici, c’est que nous mettons à jour la plate-forme, nous mettons à jour le processeur et nous mettons à jour une partie de notre portefeuille en une seule fois, ce qui, à notre avis, apporte une énorme valeur client. À votre question concernant la présence d’Intel dans tous les coins du marché – nous pensons que c’est un de nos différenciateurs. Là où nous nous concentrons vraiment, commence par atteindre les charges de travail de périphérie et la livraison via le réseau, et conduire la transformation du réseau vers Xeon [from edge to cloud]. Nous livrons au cœur du centre de données, et nous livrons dans le cloud et le calcul haute performance. Nous continuons à chercher à étendre les services et les capacités que nous pouvons offrir aux clients, et à simplement assurer la cohérence de la plate-forme dans un si grand nombre de leurs cas d’utilisation.

[Note that] Je n’appelle jamais Xeon un produit serveur! J’ai travaillé si dur pour le transformer en un véritable produit de centre de données et maintenant, il est même étendu au-delà de cela, pour être assis dans tant d’environnements périphériques et robustes. Je suis donc très fier et heureux de voir un Xeon sur chaque station de base et sur chaque poteau téléphonique!

IC: Ces marchés supplémentaires sur lesquels Intel joue, sont-ils une grande opportunité de croissance des revenus? C’est une grande caractéristique de ce que l’ancien PDG Bob Swan et de ce que le nouveau PDG Pat Gelsinger a dit récemment.

LS: C’est une opportunité de revenus et une opportunité client. Cela nous permet de répondre à davantage de leurs besoins et, en fait, cela nous permet de jouer un rôle plus important dans la réussite de nos clients. Nous ne sommes pas seulement dans le centre de données, nous couvrons toutes les façons dont nos clients cherchent à générer leur propre valeur, leur propre monétisation, et c’est donc l’une des choses les plus amusantes à faire.

IC: Au cours des dernières générations, l’accent a été mis sur les performances de base des charges de travail quotidiennes courantes des clients serveurs. Intel se concentre maintenant apparemment sur la fourniture de solutions, activée via les autres parties de l’écosystème évolutif tels que la série Optane DCPMM 200, le nouvel Ethernet de la série 800, les SSD Optane et 3D NAND, les FPGA Agilex, les eASIC et la pile logicielle derrière DLBoost et OneAPI . Pouvez-vous expliquer comment la demande des clients dans l’écosystème passe d’un simple achat de base à un achat optimisé pour la solution qui va au-delà du noyau?

LS: Je décris toujours le Xeon comme l’objectif le plus général de toutes les solutions à usage général! Il peut littéralement exécuter n’importe quoi et vous offrira une bonne expérience prête à l’emploi sur tout. Nous avons consacré énormément d’efforts et de ressources à la manière dont nous pouvons nous améliorer dans des domaines spécifiques, et nous ciblons ceux-ci plus haut. [market] zones de croissance. Vous avez mentionné l’intelligence artificielle, qui est un domaine dans lequel nous investissons à la fois sur le plan matériel, ce qui est très important, mais le logiciel est au moins égal (sinon plus important) pour optimiser les performances. [Enabling] tout ce portefeuille pour fournir un état d’esprit de solutions a probablement été l’un de nos plus grands changements, [especially] comment interagir avec nos clients, et en regardant nos [customers] et travailler avec eux sur des exigences beaucoup plus globales. Ainsi, notre collecte des exigences s’est définitivement améliorée et est devenue beaucoup plus complète, puis nous avons ajouté des capacités de solutions et des offres de solutions.

Nous avons parlé des solutions Market Ready, spécialement destinées à la périphérie, et nous avons parlé de Select Solutions pour les cas d’utilisation du cloud et des entreprises et des réseaux et HPC. Nous avons en fait des types de programmes similaires qui sont moins axés sur l’image de marque de nos principaux clients fournisseurs de services cloud, créant des efforts d’ingénierie cloud axés sur le couplage de ces processeurs personnalisés avec les performances d’Optane, ou les performances Ethernet 800 Series, et vraiment les aidant à tirer plus de valeur de leurs achats d’infrastructure.

Un domaine dans lequel nous avons utilisé la partie FPGA de notre portefeuille est également le passage aux cartes réseau intelligentes, ce qui est un domaine d’intérêt croissant et nous donne l’occasion d’aborder de manière vraiment globale la gestion de l’infrastructure de nos clients, ainsi que la monétisation. ils veulent faire au-dessus du noyau.

IC: Quelle est l’importance ou la pertinence des comparaisons de performances de base brutes dans l’industrie des serveurs?

LS: Je pense toujours qu’il y a un noyau du public et de l’industrie qui veut entendre cela et qui veut voir à quoi cela ressemble. Je ne veux pas que nous abandonnions l’utilisation de ces critères. J’essaye aussi de conduire l’équipe [towards] le marché qui associe la référence avec le résultat réel dans le monde réel lorsque vous utilisez uniquement un produit CPU Xeon ou l’intégralité de la plate-forme Xeon. Nous voulons pouvoir [voice] cette traduction parce que les clients se trouvent à différents endroits de leur parcours autour d’une vue de type solution. Je pense qu’il est important pour Intel de continuer à améliorer les performances, et nous continuerons à faire rapport et à discuter des benchmarks standardisés, mais nous y ajoutons une vision beaucoup plus holistique de ce que le portefeuille peut faire. Je pense donc qu’il est important de rencontrer nos clients et notre public là où ils se trouvent, au lieu de simplement dicter où nous en sommes.

IC: Les produits serveurs d’Intel utilisent l’AVX-512 depuis l’époque de Xeon Phi, puis il a été introduit sur les processeurs Xeon de Skylake. Nous voyons maintenant également AVX-512 déployer pour la première fois sur les processeurs de bureau grand public. Il existe encore une certaine confusion quant à l’omniprésence de l’AVX-512, en particulier en ce qui concerne les bases de code des fournisseurs de services cloud et d’entreprise (CSP). Quelles tendances de reprise voyez-vous avec cette fonctionnalité et à quel point elle sera critique à mesure qu’Intel progressera avec des plates-formes telles que Ice Lake.

LS: L’AVX-512 est une excellente fonctionnalité. Il a une valeur inestimable pour nos clients qui l’utilisent, et je suis parfois émerveillé lorsque je lis les commentaires de votre public sur le débat houleux qu’ils auront sur la valeur de l’AVX-512. Mais je vous dis, et sans blague, qu’une semaine et demie environ avant le lancement, je regardais une liste des contrats gagnés dans l’une de nos zones géographiques. 70% de ces contrats gagnent, la raison indiquée par notre force de vente pour cette victoire était AVX-512. L’optimisation est réelle.

Ce qui se passe cependant, comme avec AVX-512 jusqu’à présent et avec SGX à l’avenir, c’est que lorsque vous lancez et annoncez quelque chose de nouveau, malgré nos 10000 ingénieurs logiciels et notre couverture de l’écosystème, il peut être difficile d’obtenir tous les stack pour profiter de l’une de ces fonctionnalités matérielles. Il est vraiment difficile de l’activer complètement. Cela nous a pris des années [for AVX-512] et il y a encore du travail à faire.

Est-ce que tous les clients qui pourraient bénéficier de l’AVX-512 y ont eu accès parce que leur pile logicielle est complètement prête? Non, mais nous en avons énormément [of more customers] cette année, qui n’ont pas pu utiliser l’AVX-512 en 2011, 2012, 2015 ou 2017. L’activation ne cesse de croître d’année en année.

Si nous le lions à Software Guard Extensions (SGX), nous avons maintenant l’enclave de plus grande taille disponible sur Xeon Scalable. Nous avons SGX sur le marché sur notre gamme de produits Xeon-E depuis quelques générations, ce qui a permis une préparation et une adoption considérables par le secteur. Cela vous permet également de voir qui est vraiment profondément intéressé et engagé dans la construction de cette base informatique confidentielle. Alors maintenant nous sommes [moving the feature] dans le socket plus grand, avec une plus grande empreinte, une plus grande taille d’enclave, et les gens peuvent commencer à faire évoluer leurs déploiements assez rapidement parce qu’ils sont prêts.

Donc, vous regardez les fournisseurs de services cloud qui ont déjà des instances informatiques confidentielles, comme Microsoft, IBM, Alibaba, Baidu, puis vous regardez ces entreprises, comme la Banque Royale du Canada, PayPal, VISA, UCSF, German Healthcare – ces entreprises sont bien en cours de déploiement parce qu’ils en ont eu le temps et qu’ils peuvent maintenant le faire passer à une échelle encore plus grande.

Tout cela me ramène à la façon dont je pense à la façon dont je travaille avec notre équipe sur la gestion globale de la feuille de route. Nous avons vu, et nous conduisons, un changement au cours de ces dernières années pour nous concentrer plus concrètement sur l’avancement significatif des fonctionnalités, [rather than simply] une longue liste de fonctionnalités. Nous sommes beaucoup plus concentrés et normatifs dans l’examen de nos feuilles de route. Si nous ajoutons une fonctionnalité, nous devons considérer ce qu’il faudrait pour que cette fonctionnalité soit utilisée, et comment cela profiterait-il au client, plutôt que simplement ce qu’il faut pour l’installer dans le matériel. C’est un changement dans la mentalité et la pensée Intel, mais je pense que cela profitera non seulement à nous-mêmes, mais également à nos clients. Ils verront plus de choses [over time], et il sera plus prêt sur le marché quand il arrivera.

IC: SGX, Software Guard Extensions, est quelque chose que vous avez depuis un certain temps dans Xeon-E. Maintenant que la fonctionnalité évolue dans la pile Xeon plus large, Intel propose une segmentation avec la taille de l’enclave. Certains SKU ont des enclaves maximum de 8 Go, certains font 64 Go et certains font 512 Go. Pouvez-vous expliquer les raisons pour lesquelles cette segmentation est importante pour Intel, mais pouvez-vous également parler d’autres éléments de sécurité activés par la plate-forme?

LS: Sur la segmentation de la taille de l’enclave, il s’agit de donner aux clients le choix et l’opportunité. Ils ont la possibilité de réfléchir au type de déploiement dont ils auront besoin, à ce type de taille d’enclave [they will need]et quel type de données ils essaient de gérer. [It is about] quel type d’applications essaient-ils de sécuriser de manière plus robuste, et cette segmentation leur donne cela en option.

[It is worth noting that] c’est la première fois que nous introduisons ce choix sur le marché, et nous allons donc apprendre. Nous recevrons les commentaires de nos clients et de ceux avec lesquels nous avons travaillé dans notre écosystème de partenaires cloud et OEM au fur et à mesure que nous construirons à quoi ressemble la pile de SKU. Mais maintenant [with the new feature] nous obtiendrons toutes ces informations de déploiement client dans le monde réel, puis nous procéderons à des ajustements au fur et à mesure que nous avancerons. Vous avez vécu suffisamment de ces lancements avec nous, et vous avez vu comment nous lançons de nouvelles fonctionnalités, où nous commençons par un effort, puis nous les affinons au fil du temps au fur et à mesure que nous voyons et abordons l’adoption du marché. Nous pensons donc que cela donnera aux clients une base solide pour commencer, et nous verrons encore plus de clients faire la transition de leurs PoC existants (preuve de concepts) des déploiements évolutifs Xeon E vers Xeon. Nous verrons également une nouvelle vague de preuves de concepts pour les clients qui attendaient un peu plus de cette véritable disponibilité du marché avec un système à deux sockets. Je pense donc que cela nous donnera l’occasion d’apprendre et de grandir ensemble sur le marché [with our customers]. C’est donc l’une de nos plus grandes avancées en matière de sécurité – l’ajout de cet ajout matériel au portefeuille de sécurité logicielle de nos clients.

Nous ajoutons également de nouvelles accélérations cryptographiques, et c’est un domaine dans lequel Intel a investi pendant plusieurs années à une décennie ou plus. Nous y voyons un véritable facteur de différenciation pour nous. Nous avons une équipe brillante qui se concentre dans cet espace et travaille à la fois sur le matériel et les algorithmes cryptographiques ainsi que sur le support logiciel du matériel. C’est aussi un domaine de collaboration très étroite avec nos clients. Comme tu m’as entendu dire à [Ice Lake Xeon-SP] lancement, la course est lancée pour chiffrer le plus de données possible et les conserver sous une plus grande sécurité. Je pense que cela va continuer à s’appuyer sur des ensembles de fonctionnalités très importants et permettre une plus grande capacité dont nos clients bénéficient déjà.

IC: En parlant des clients, historiquement, quand Intel lance un lancement de plate-forme Xeon, il évolue d’un socket à huit sockets. Nous avons maintenant une situation où, avec le Xeon Scalable de 3e génération, nous avons une division, où vous avez Ice Lake pour jusqu’à deux prises sur 10 nm et Cooper Lake sur quatre à huit prises sur 14 nm. Pouvez-vous expliquer les raisons de la division des marchés? Y a-t-il des limitations techniques, ou est-ce la demande des clients, ou y a-t-il autre chose dans le mix? Cela indique-t-il ce que nous pourrions voir à l’avenir, ou Intel va-t-il fusionner à nouveau?

LS: Je pense que nous construisons une flexibilité encore plus grande dans notre portefeuille. Vous verrez beaucoup d’options que nous créons avec certaines des choses dont le PDG Pat Gelsinger a parlé chez Intel Unleashed il y a quelques semaines. Pat a parlé [being able to] répondre aux besoins des clients qui ne sont peut-être pas aussi spécifiques. [In discussions with our customers,] nous avons eu l’occasion de nous rafraîchir et de mettre en place de nouvelles capacités dans cet espace à quatre emplacements et au-dessus devant Ice Lake. Nous avons fait le choix de profiter de cette opportunité, d’ajouter de nouvelles fonctionnalités (comme BFLOAT16) et de répondre à certaines exigences très spécifiques des clients à haut volume que nous avions dans cet espace avant de lancer Ice Lake sur le marché.

Compte tenu de la taille du marché traditionnel des entreprises à quatre sockets et des clients spécifiques, doubler notre investissement dans Ice Lake ou 3rd Gen Xeon Scalable pour permettre une autre plate-forme à quatre sockets si rapidement semblait trop difficile à gérer pour la valeur que cette plate-forme offrirait. Nous avions donc fourni les bonnes capacités avec la première partie du portefeuille de 3e génération (Cooper Lake) pour une actualisation afin de répondre à quelques exigences très importantes des clients. [This enables us] pour que l’écosystème se concentre d’abord sur leurs systèmes à deux prises Ice Lake, puis passe à notre prochaine génération de Sapphire Rapids qui couvrira l’ensemble de la pile.

Donc [Cooper Lake] a réalisé une opportunité que nous avions, motivée par la demande des clients. Ce n’était pas une stratégie éternelle de séparer les [dual socket and quad socket markets], mais au fur et à mesure que nous augmentons notre capacité et notre rythme de mise sur le marché de nouvelles technologies, nous pouvons encore examiner la fréquence à laquelle le marché traditionnel des quatre sockets a besoin de ce niveau de rafraîchissement.

IC: En parlant de ces clients sélectionnés, dans le passé, lors de la journée de l’innovation Data Centric, je me souviens d’une diapositive qui contenait un graphique à secteurs indiquant tous les Skylake Xeons fabriqués par Intel. Plus de la moitié d’entre eux dans ce graphique ont été personnalisés en fonction des besoins spécifiques d’un client, en particulier ces grands clients de haut niveau, les fournisseurs de services cloud et les hyperscalers. Diriez-vous que vous personnalisez toujours plus de 50% pour ce type de gros clients? Pouvez-vous nous expliquer comment cela a évolué?

LS: C’est encore plus de 50%, et je dirais que vous continuerez à le voir grandir. Ce que nous essayons également de faire, c’est d’ajouter un niveau de personnalisation pour tous ces marchés.

Dans la feuille de route principale des SKU, vous verrez l’opportunité de taille de l’enclave SGX, mais nous avons également des SKU optimisés pour le cloud pour l’utilisation de VM, nous avons des SKU optimisés pour le réseau et NFV, les opportunités optimisées pour le traitement des médias et une longue durée de vie et une utilisation plus robuste. processeurs de cas pour les charges de travail de périphérie. Nous essayons donc de fournir un niveau de personnalisation même au sein de la pile de SKU principale pour ceux qui ont ce type de ciblage de précision de leur infrastructure pour leur charge de travail.

Nous livrons toujours plus de 50% de pièces personnalisées et nous continuerons à augmenter notre volume personnalisé. Au fil du temps, nous avons développé nos capacités dans cet espace et j’ai une équipe distincte dans laquelle nous avons investi et qui gère nos SKU personnalisés avec nos principaux clients. Cela leur permet de vraiment régler et cibler leurs environnements. Cela a commencé par quelques boutons à régler, et maintenant il a grandi et nous avons la capacité et la capacité et la volonté de faire pleinement de la personnalisation jusqu’au niveau IP.

Ce que nous faisons avec ces SKU, lorsque nous les fabriquons, nous les créons et, à mesure que nous les déployons, nous laissons à nos clients le soin de déterminer la quantité de détails qu’ils souhaitent exposer. [to the press or customers]. Cette co-optimisation a souvent une grande importance dans la façon dont ils se différencient des concurrents. Nous considérons donc cela comme une grande partie de leur capacité à déterminer combien ils veulent partager avec le monde. Pour Intel, nous nous concentrons sur les principaux benchmarks de performance, et tout ce que nous faisons est sur la ligne principale accessible à tous.

IC: Il est donc intéressant que vous évoquiez les nouveaux SKU séparés. Au-delà de ceux axés sur le réseau, que vous aviez dans la génération précédente, vous disposez désormais d’un SKU axé sur les médias. Tout ça c’est à propos de quoi? Qu’est-ce qu’il y a dedans? Qu’est ce qui est special?

LS: Si vous pensez à la charge de travail, nous essayons de cibler le bon nombre de cœurs, la bonne fréquence, puis le mélange entre les turbos monocœur et tous les cœurs. Il s’agit également de la quantité de cache qui s’y trouve et de l’apparence des thermiques pour ces clients.

Dans ce cas, à travers le traitement des médias et les charges de travail optimisées, nous avons une équipe qui se concentre sur cette charge de travail et ces clients clés et au fur et à mesure qu’ils rassemblent les exigences. Les exigences proviennent des opérateurs CSP, des opérateurs de jeux en ligne et de tous ces types de clients. [We want to enable] la configuration la plus idéale pour garantir la qualité de service et permettre autant de performances à livrer avant de passer potentiellement aux accélérateurs de déchargement. Donc, pour ce sont les configurations matérielles que nous avons ces boutons que nous pourrions utiliser pour créer ce SKU.

La deuxième chose que nous ferons est de concentrer notre travail logiciel pour eux. Ainsi, lorsque nous prenons en charge l’encodage et les logiciels, nous essayons de nous assurer qu’ils sont mis à jour pour tirer parti de ce SKU spécifique et de cette configuration. Vous obtiendrez évidemment des avantages sur tous les SKU que vous choisissez, mais nous ferons le plus grand réglage et optimisation pour le code ciblé sur ce processeur. Ainsi, sur un benchmark standard, vous pouvez obtenir des performances X, mais si vous comparez la version du SKU multimédia, vous obtiendrez probablement X plus une amélioration des performances, qui pourrait être de 10%, selon le cas exact.

IC: Qu’est-ce que ce processeur refroidi par liquide dans la pile de produits? Est-ce pour HPC?

LS: Vous ne savez jamais qui va expérimenter aussi! Mais oui, définitivement concentré celui-là vers le HPC. Personnellement, je n’ai toujours pas eu l’opportunité de plonger ma main dans un réservoir de quelque chose et de sortir un Xeon, mais j’attends avec impatience!

IC: Désolé quand je dis refroidi par liquide, je pensais que cela signifiait une sorte de refroidisseur de liquide en boucle fermée. Vous parlez de refroidissement par immersion?

LS: Nous avons des clients qui cherchent à faire tout ce qui précède! Nous avons donc un client dans tous les coins du monde qui veut repousser les limites sur tout cela sur tout. L’endroit où nous voyons le plus de traction et d’intérêt à ce sujet est dans la communauté informatique haute performance. Au fur et à mesure que leurs capacités ont continué de progresser et de croître, certains de nos OEM se sont spécialisés dans ce domaine et utilisent ce processeur pour leur différenciation. Nous voulons soutenir cela.

IC: Alors que nous voyons la plate-forme de serveur grand public Xeon évoluer, Intel parle également de ses solutions graphiques d’entreprise. Alors, y a-t-il quelque chose de spécial dans Ice Lake ici qui est activé lorsque les deux sont jumelés?

LS: Nous travaillons certainement là-dessus. Je n’ai pas de slogan «3rd Xeon Scalable Better Together» ou quoi que ce soit pour le moment, mais alors que nous regardons vers Sapphire Rapids et au-delà, c’est définitivement quelque chose sur lequel nous travaillons ensemble. Nous voulons absolument que cette valeur de portefeuille apparaisse lorsque vous mettez un Intel Xeon avec un GPU Intel. Une API comme vous le savez a une base logicielle pour cela, puis entre mon équipe et l’équipe de Jeff McVeigh, et dans l’organisation de Raja, nous travaillerons pour nous assurer que nous tenons cette promesse de valeur. C’est une trop grande opportunité à manquer! Mais je n’ai rien à vous révéler aujourd’hui!

IC: Intel a historiquement activé trois tailles de silicium pour ses produits Xeon: un faible nombre de cœurs pour l’entrée, un nombre de cœurs moyens pour la majeure partie du marché et un nombre élevé de cœurs pour les solutions optimisées pour le calcul ou le cache. Pouvez-vous décrire comment Intel segmente le silicium Ice Lake cette fois-ci et mentionner les segments spéciaux dont les clients devraient être conscients?

LS: Vous savez que c’est assez similaire dans le sens où nous avons évidemment nos offres de nombre de cœurs les plus élevées, jusqu’à 40 cœurs, et nous avons les configurations thermiques plus élevées que cela peut atteindre. Nous nous dirigeons vers ces performances de pointe et essayons de vraiment réduire la latence tout en améliorant les performances. Nous avons également des options qui descendent à 105 watts. Nous couvrons toute la gamme, comme je l’ai dit, et lorsque vous essayez d’atteindre certaines de ces charges de travail Edge, vous souhaitez proposer toute une gamme de pièces. Nous descendons à 8 cœurs, jusqu’à 40 cœurs, puis, comme vous l’avez dit, une gamme de tailles de cache entre les deux.

Je pense que ce que nous verrons, c’est que nous aurons des clients qui resteront également sur leurs plates-formes de 2e génération, car ils fonctionnent bien et ils pourraient ne pas être aussi performants pour un acheteur que pour un acheteur. Ils peuvent apprécier la stabilité et la continuité de rester avec la plate-forme au lieu de se déplacer ou de se rafraîchir, et nous avons l’intention de soutenir ces deux types de clients sur le marché. Je pense vraiment que la façon dont le marché s’est segmenté et évolué, le jour de ce ramassage et de cette transition en gros en gros ne se produit plus. Mais ceux qui grimpent le plus rapidement continuent de grimper très rapidement, et ces clients représentent une part très importante du volume.

IC: J’ai fait quelques calculs approximatifs de la taille des puces des plus grosses puces Ice Lake proposées, soit environ 620-660 mm2 – c’est un très gros morceau de silicium pour les processus de fabrication 10 nm d’Intel. Je sais que vous avez annoncé que plus de 100k processeurs avaient déjà été livrés avant le lancement, et 200k + au fur et à mesure du lancement. Mais avec une matrice aussi importante, comment voyez-vous le déploiement d’Ice Lake Xeon évoluer vers les partenaires OEM et les clients spécialisés?

LS: Je promets que je ne ferai pas comme un article de blog hebdomadaire du prochain numéro! Nous considérons donc celle-ci comme étant très similaire à nos autres rampes de transition de plate-forme, en ce qui concerne le taux et le rythme. Nous savons que nous avons refoulé la demande pour répondre [demands in] performance. Nous savons que nous avons des clients qui sont impatients de produire une offre Intel PCIe Gen 4.0, et nous savons que nous avons la valeur de la plate-forme, avec des canaux de mémoire plus élevés et autres. Tout cela conduit à ces performances convaincantes que les clients veulent obtenir.

Nous prévoyons que cela soit assez conforme à notre rampe traditionnelle, et nous avons organisé notre approvisionnement pour le faire. Le fait que le Xeon Scalable ou un die basé sur Ice Lake Xeon soit un gros morceau de silicium, ou le plus gros produit par Intel, n’est pas une fonctionnalité nouvelle pour Xeon. Les grosses tailles de matrices sont ma vie! Je suis très gentil avec mes amis d’usine, car je leur demande leurs meilleurs rendements et leur volume le plus élevé. Nous sommes actuellement confrontés à des contraintes mondiales sur la fabrication de puces et dans les composants de puces, nous essayons donc d’utiliser notre capacité de chaîne d’approvisionnement stratégique pour y remédier, et nous avons l’intention de prendre en charge l’ensemble de l’offre Ice Lake au fur et à mesure de notre montée en puissance. Je pense que nous sommes en fait dans une très bonne position pour capitaliser sur le fait que nous sommes un IDM, et avons cet avantage IDM.

IC: Intel réfléchit déjà aux produits de nouvelle génération, en particulier avec le déploiement de processeurs comme Sapphire Rapids dans le supercalculateur exascale Aurora, qui se produit à la fin de cette année ou au début de la prochaine. Je sais que vous ne parlerez probablement pas de Sapphire Rapids, mais peut-être pouvez-vous expliquer la durée de vie de la plate-forme Ice Lake pour les clients qui cherchent à déployer des systèmes aujourd’hui?

LS: Je vois en fait Ice Lake comme une opportunité de vivre assez longtemps dans cette génération de Sapphire Rapids. J’en ai parlé un peu plus tôt, que [it’s not solely about] gros mouvements.

Si je repense au début du parcours des fournisseurs de services cloud avec ces grands clients, il y a 10 ans, ils voulaient à l’époque les serveurs 1U les moins performants. Si quelque chose arrivait, ils l’ont jeté, puis lorsque nous avons lancé le nouveau, ils les ont tous jetés de toute façon et en ont mis tous les nouveaux. Cela a tellement changé – les fournisseurs de services cloud sont passés à de véritables exigences de classe Entreprise. Ce sont nos acheteurs les plus performants, ils se déplacent vers le haut de la pile et ils conservent les produits et la production plus longtemps. [This is true] en particulier en tant que fournisseur «d’infrastructure en tant que service», où s’ils ont un client satisfait, pourquoi dérangeraient-ils le client satisfait? Ils ont donc besoin d’avoir une durée de vie un peu plus longue sur les plates-formes que nous fournissons.

En même temps, chaque fois qu’il y a quelque chose de nouveau qu’ils peuvent utiliser pour se différencier [their offering] et créer de nouveaux services, ou créer de la valeur pour leurs clients, ils pivoteront et évolueront vers cela. Je pense que ce qui va se passer, c’est que beaucoup de nos clients d’Ice Lake vont simplement continuer à leur offrir maintenant des services premium et remplir leur pile, puis appliquer Sapphire par-dessus. On a beaucoup parlé de leur proximité, mais c’est en fait une sorte de représentation de ce à quoi cela ressemble à mesure que nous nous rapprochons de cette cadence de quatre et cinq quarts souhaitée par nos clients. Il y a donc beaucoup de discussions sur le marché pour savoir s’ils seront trop proches les uns des autres, mais nous voyons vraiment le timing de Sapphire Rapids similaire à celui d’Ice Lake comme offrant cette opportunité pour les clients de monter l’un d’eux, puis de commencer à appliquer l’autre par-dessus. Nous devrons donc travailler là-dessus avec l’industrie, mais nous avons une bonne équipe qui se concentre là-dessus.

IC: Ice Lake a été lancé beaucoup plus tard que prévu initialement par Intel, il est indéniable que, à un moment où il y a une concurrence accrue sur le marché de la part des autres conceptions x86 ainsi que des nouvelles conceptions Arm. Bien que le lancement tardif ne soit pas idéal, pouvez-vous décrire les domaines du portefeuille de soutien qu’Intel a été en mesure d’accélérer pour soutenir de manière agressive le lancement d’Ice Lake afin d’accroître sa compétitivité?

LS: Pour un lancement Xeon, l’important n’est pas que vous atteigniez une date précise ou un moment marketing, c’est que votre écosystème soit prêt à fonctionner. C’est ce sur quoi nous nous sommes vraiment concentrés, plutôt que sur la gestion arbitraire des dates. Là encore, nous avons l’intention de capitaliser et de continuer à créer de la valeur autour du reste de ce portefeuille que vous avez mentionné, qu’il s’agisse des SSD Optane, de la mémoire persistante Optane, des FPGA.

J’aime beaucoup être avec mes pairs et discuter des accords qui sont réellement gagnés avec Intel, et même parfois conclus avec des clients en fonction des composants de la plate-forme. J’ai donc mentionné ADQ pour la série Ethernet 800 -, nous avons des clients que la capacité et la fonctionnalité Xeon Plus ADQ sont si importantes pour eux que même s’ils étaient intéressés ou visionnaient une architecture de processeur en silicium compétitive, ils s’en tenaient et restent avec Xeon parce que que la solution ADQ plus Xeon fait une si grande différence dans leur coût total de possession ou dans le résultat de leur application. Nous voyons la même chose avec Optane Persistent Memory, et j’ai fait allusion à certains des travaux que nous faisons avec nos victoires SmartNIC basées sur FPGA. C’est un tel avantage d’avoir ce portefeuille, et il est intéressant de voir d’autres sur le marché qui cherchent à faire de même. Je suis reconnaissant pour notre avance de plusieurs années dans cet espace, d’autant plus que nous entrons dans une période incroyablement dynamique dans le domaine de la technologie et du développement du silicium. Il se passe vraiment beaucoup de choses en ce moment.

IC: Intel propose la série Optane DCPMM 200 avec Ice Lake Xeon comme une valeur ajoutée compétitive, mais il est difficile de manquer que l’accord avec Micron est terminé, Micron cherche à vendre l’usine Leti, et le seul engagement d’Intel à ce jour a été R&D dans l’usine de Dalian en Chine. Pouvez-vous parler de la vision d’Intel de l’avenir d’Optane, en particulier en ce qui concerne la longévité des produits sur Ice Lake et l’avenir d’Intel?

LS: Je pense que nous sommes sur le point de saisir de très bonnes opportunités et de continuer sur la lancée des clients sur Optane, et je vous ai déjà parlé de la conversion de la preuve de concept en revenus. Nous sommes à 80%, et c’est tout simplement formidable pour une nouvelle technologie sur le marché, et j’ai donc vraiment hâte de mettre la série 200 entre les mains des clients. Nous avons un excellent pipeline [for Optane], et nous nous concentrons beaucoup sur la création de cet écosystème, tout comme nous avons dû le faire sur AVX-512, tout comme nous avons dû le faire sur SGX, et comme nous le faisons ici.

Je sais que le produit Micron était une nouvelle dans l’écosystème, mais j’ai confiance en la capacité d’Intel à naviguer et à gérer les défis de fabrication ou les changements d’accords de ce genre. Je suppose que je dirai simplement qu’une partie particulière n’est pas quelque chose dont je pense que nos clients doivent s’inquiéter. Je pense que nous avons beaucoup d’options dans la façon de produire, de fabriquer et de livrer le produit Optane. Je passe donc 100% de mon temps Optane à développer la dynamique client, à m’assurer qu’ils sont vus en tirer parti et en tirer de la valeur, plutôt que de relever les défis du côté de la fabrication. Je pense que nous allons nous retrouver dans une position correcte là-bas.

IC: Pat Gelsinger, PDG d’Intel, dans le récent Intel Unleashed, a évoqué le passage d’Intel à un concept de carrelage avec certaines de ses gammes de produits. Il est clair que l’avenir sera avec des puces, des tuiles ou simplement des grappes de silicium utilisant des emballages 3D avancés, en particulier pour les marchés qui traitent de produits de silicium complexes hautes performances. Pouvez-vous nous expliquer comment cela va affecter Intel Xeon, l’équipe, la recherche et l’avenir?

LS: C’est – c’est bien, c’est passionnant, et cela correspond à notre avenir. Before Pat had finished his first week [at Intel], I already had an opportunity to spend about two and a half hours with him just going over what we’re doing on Xeon – a few things have changed since he was last here! But I had a chance to sit down with him and walk through our long term strategy – where we are at today, what we are working through today, what are we setting ourselves up for in the future, and how are we addressing these customer needs. It was great to get his initial feedback and his reactions. He’s got a customer view that is very valuable to us, coming not only from his silicon background experience, but his last 11 years of really dialing up his software knowledge I think is going to help us so much. The good news was walking out of that meeting. The kind of view from him is that we are on the right track, and we’ve got the right strategy, so now it’s just a desire to push us faster, harder, sooner, better, stronger – all of that good stuff. So I think that Pat’s view of our vision, and this Xeon team that we’ve built over the past couple of years, is really closely coupled.

So then to your point, we are going to take advantage of all of those unique and differentiated packaging capabilities in order to deliver in Sapphire Rapids, and deliver in Grand Rapids, and beyond that to some really exciting stuff that we’re working on that allows us to use even more of the cores, even more of the portfolio, together. So it’s definitely put in there.

The other thing I’ll say is that over the last year and a half or so, we’ve restructured how we’re building Xeon. It was necessary as we faced some challenges that are well discussed around our 10 nm in the industry. I had an opportunity to move out of more traditional marketing role into having the control of product management and the IP planning and overall roadmap structuring to build this cross company team – the Xeon Leadership team.

I’m really excited about this group of leaders, and the people that we have pulled together that I think represent best in class for the industry. The work that we’ve done in the last 18 months to kind of reset the foundation of where we’re going I think will deliver a lot of customer value. It’s going to give us an opportunity to take advantage of EMIB or Foveros or others on the horizon faster. It’s going to make us more competitive across all types of silicon. It’s not just x86 competition or any singular one market, and I look at the way we’ve capitalized on a diversity of thought and a diversity of talent.

I’m excited to have leaders like Gloria Leong, VP GM Xeon Performance Group, running all of our silicon design. We have Karin Eibschitz Segal, the VP Design Engineering Group, GM Intel Validation, who’s running our validation. We’ve got Rose Schooler, CVP Data Center Sales and Marketing Group, running all of our sales, and I’ve got Jennifer Huffstatler, GM Data Center Product Management, running strategy for us. Rebecca Weekly, VP and GM of our Hyperscale Strategy and a Senior Principal Engineer of DPG running our cloud for our major cloud customers. We’ve got Niveditha Sundaram, VP Cloud Engineering running our cloud engineering, and Navine Nassif, Intel Fellow, Sapphire Rapids CPU Lead Architect, who is running our Sapphire Rapids programme. So you might notice a theme with those! I also have wonderful awesome male colleagues that are driving this as well – we’ve got Sailesh Kottapalli, Intel Fellow and Ronak Singhal, Intel Fellow.

But this core group of women that I’m really excited about in leadership and technical badass roles out there. They are arm and arm with me and with our partners to crush it and bring so much performance and capability and commitment back to Xeon. I’m excited! So I say to the engineers of the world that if you’re looking for a great team that values diversity of thought and ideas, and experience, and wants to capitalize on everyone’s unique strengths, then Xeon is the place to do amazing and cool work.

IC: That almost sounds like a job ad!

LS: Almost! I want all the people that have the best ideas that are really looking for a home to make a major impact – I want them to feel welcome here. Having that many amazing diverse technical leaders happens when you’re purposeful about it, and you put them in big roles, and you give them the opportunity and the platform to shine.

Many thanks to Lisa Spelman and her team for their time.
Many thanks also to Gavin Bonshor for transcription.