En exclusivité pour AnandTech, nous nous sommes entretenus avec le PDG de Synopsys, Aart de Geus, avant une paire de présentations lors de deux prochains événements techniques de l’industrie des semi-conducteurs cette année. Synopsys nous a contactés pour nous donner un aperçu du sujet clé du jour, de l’année : dans le cadre de ces discussions, Aart discutera de ce qui était considéré comme impossible il y a seulement quelques années : la voie à suivre pour trouver un moyen meilleur et automatisé d’entrer dans la puce conception grâce à l’utilisation de solutions d’apprentissage automatique. Dans le cadre des outils EDA, comme Google l’a démontré récemment, les ingénieurs peuvent être aidés à créer de meilleurs processeurs à l’aide d’algorithmes d’apprentissage automatique.

L’économie moderne push-pull de meilleurs outils d’analyse de données

Si vous lisez les colonnes grand public sur la technologie et la croissance aujourd’hui, il y a un accent éminent sur les concepts de mégadonnées, d’intelligence artificielle et de la valeur de l’analyse de ces données. Avec suffisamment de données qui ont été analysées efficacement, les entreprises ont montré qu’elles sont proactives envers les clients, prédisent leurs besoins à l’avance ou identifient les tendances et réagissent avant même qu’un humain n’ait vu les données. Plus vous avez analysé de données, meilleures peuvent être vos actions ou réactions. Cela signifie que l’analyse de la quantité de données elle-même a une valeur intrinsèque, ainsi que la vitesse à laquelle elle est traitée. Cela a provoqué une explosion de la demande pour de meilleurs outils d’analyse, mais aussi une explosion de la création de données elle-même. De nombreuses personnalités de la technologie et des affaires considèrent l’intersection et le développement d’outils d’analyse de données d’apprentissage automatique pour parcourir ces données comme la marque de la prochaine génération d’économie.


Graphique montrant la croissance de la fabrication des principales gammes de produits en silicium depuis 2016
chez TSMC, le plus grand sous-traitant au monde

Le désir d’avoir la meilleure solution accélère le développement de meilleurs services publics, mais en même temps, la nécessité de la déployer à grande échelle crée une immense demande de ressources. Pendant ce temps, un certain nombre de critiques prévoient que la loi de Moore, une observation des années 1960 autour du développement exponentiel de l’informatique complexe qui s’est vérifiée pendant 50 ans, touche à sa fin. D’autres sont occupés à l’aider à rester sur la bonne voie. Étant donné que la conduite des performances nécessite une innovation à plusieurs niveaux, y compris le matériel et les logiciels, la nécessité d’optimiser chaque couche d’abstraction pour poursuivre cette croissance exponentielle est devenue plus complexe, plus coûteuse et nécessite un gain économique fondamental pour les personnes impliquées pour poursuivre l’investissement.

L’un des moyens d’améliorer les performances du côté matériel consiste à concevoir des processeurs pour qu’ils fonctionnent plus rapidement et plus efficacement. Deux processeurs avec les mêmes blocs de construction fondamentaux peuvent avoir ces blocs placés dans de nombreuses orientations différentes, avec certains arrangements bénéfiques pour la puissance, d’autres pour les performances, ou peut-être pour la zone de conception, tandis que certaines configurations n’ont aucun sens. Trouver la meilleure combinaison à la lumière des conditions économiques du moment est souvent crucial pour la compétitivité du produit et le dynamisme de l’entreprise qui repose sur le succès de ce produit. L’industrie des semi-conducteurs est rare dans la mesure où la plupart des entreprises de conception de puces parient effectivement toute l’entreprise sur le succès de la prochaine génération, ce qui rend la conception de chaque génération plus importante que la précédente.

Les humains sont lents, la force brute est impossible, mais l’IA peut aider

À la lumière du rythme de l’innovation, les équipes de conception de puces ont passé des dizaines de milliers d’heures à perfectionner leurs compétences au fil des décennies. Mais nous sommes à un stade où un processeur complexe moderne a des milliards de transistors et des millions de blocs de construction à assembler dans quelque chose de la taille d’un ongle. Ces équipes utilisent leur expertise, leur intuition et leur sens pour placer ces unités dans la meilleure configuration, et cela est simulé pendant 72 heures. Les résultats obtenus sont analysés, la conception est à nouveau mise à jour et le processus se répète. Obtenir le meilleur processeur conçu par l’homme de cette manière peut prendre six mois ou plus, car le nombre d’arrangements possibles est équivalent au nombre d’atomes dans l’univers connu… augmenté à la puissance du nombre d’atomes dans l’univers connu. Avec des nombres si grands, utiliser des ordinateurs pour forcer la meilleure configuration est impossible. Du moins, on le pensait.

Des travaux de Google ont récemment été publiés dans la revue scientifique Nature sur la façon dont l’entreprise utilise déjà des outils d’IA personnalisés pour développer un meilleur silicium, ce qui contribue à son tour à développer de meilleurs outils d’IA personnalisés. Dans le document de recherche, la société a appliqué des algorithmes d’apprentissage automatique pour trouver la meilleure combinaison de puissance, de performances et de surface de matrice pour un certain nombre de conceptions de test.

Afin de réduire la complexité du problème, Google a limité sa portée à certaines couches de la conception. Prenez, par exemple, un circuit électrique conçu pour additionner des nombres – dans le travail de Google, plutôt que d’essayer de trouver le meilleur moyen de construire un circuit comme celui-ci à chaque fois, ils ont pris une bonne conception d’additionneur comme élément fondamental du problème, cartographié comment il interagit avec d’autres blocs fondamentaux différents, puis le logiciel d’IA a trouvé le meilleur moyen de construire ces blocs fondamentaux. Cela réduit le nombre de configurations différentes nécessaires, mais le problème reste difficile à résoudre, car ces blocs interagiront avec d’autres blocs à des degrés divers en fonction de la proximité, des connexions et des interactions électriques/thermiques. La nature du travail dépend toujours du niveau d’abstraction pris par ces différents blocs de construction et de leur complexité/base.


Un exemple simple en 8 étapes de placement et de routage de blocs affecte les choix de conception

Dans le document de Google, la société déclare que ses outils ont déjà été utilisés pour aider à concevoir quatre parties d’un futur processeur Google TPU conçu pour l’accélération de l’apprentissage automatique. Bien que l’article montre que les outils d’IA n’ont pas été utilisés dans l’ensemble du processeur, il prend une partie du travail qui était auparavant fastidieux dans les heures de travail des ingénieurs et accélère le processus grâce au calcul. La beauté de cette application est que la façon dont ces blocs de construction peuvent être assemblés peut évoluer, et les entreprises comme Google peuvent utiliser leurs centres de données pour tester des milliers de configurations en une seule journée, plutôt que de demander à un groupe d’ingénieurs de fournir une poignée d’options après plusieurs mois.

L’approche de Google détaille également l’effet de l’utilisation d’un apprentissage automatique optimisé (donc d’algorithmes qui ont appris à être meilleurs en examinant des conceptions précédentes) par rapport à un nouvel apprentissage automatique (des algorithmes avec seulement une compréhension de base qui apprennent de leurs propres essais et erreurs). Ces deux domaines sont importants, montrant que dans certaines circonstances, les algorithmes n’ont pas besoin d’être pré-entraînés mais peuvent toujours fournir un résultat meilleur que l’humain. Ce résultat nécessite encore une validation supplémentaire pour l’efficacité, et les résultats sont réinjectés dans l’équipe logicielle pour créer de meilleurs algorithmes.

Il y a plus à venir, et cela commence avec EDA

Mais ce n’est que la pointe de l’iceberg, selon Aart de Geus, PDG de Synopsys, dont le logiciel de l’entreprise aide à développer plus de propriété intellectuelle de traitement du silicium dans l’industrie aujourd’hui que quiconque. Synopsys est impliqué dans la conception de silicium depuis plus de 35 ans, avec des centaines de clients, et son dernier produit accéléré par l’IA est déjà utilisé par un certain nombre d’équipes de conception de silicium de haut niveau qui fabriquent aujourd’hui des processeurs pour aider à accélérer le temps de mise sur le marché avec un meilleur placement des semi-conducteurs que les humains peuvent réaliser.

Synopsys est une entreprise qui fabrique des outils « EDA », ou Electronic Design Automation, et chaque entreprise de semi-conducteurs du secteur, ancienne et nouvelle, s’appuie sur une forme d’EDA pour commercialiser le silicium. Les outils EDA permettent aux concepteurs de semi-conducteurs d’écrire efficacement un code qui décrit ce qu’ils essaient de faire, et qui peut être simulé avec une précision suffisante pour dire au concepteur s’il s’inscrit dans des paramètres stricts, répond aux exigences de la fabrication finale, ou s’il a thermique problèmes, ou peut-être que l’intégrité du signal ne répond pas aux spécifications requises pour une norme donnée.

Les outils EDA reposent également sur l’abstraction, des décennies de développement d’algorithmes, et alors que l’industrie évolue vers des conceptions multi-puces et des technologies d’emballage complexes, les équipes logicielles derrière ces outils doivent s’adapter rapidement à un paysage en constante évolution. Ayant compté sur des solutions d’algorithmes non linéaires complexes pour aider les concepteurs à ce jour, les exigences de calcul des outils EDA sont assez importantes et souvent non évolutives. Ainsi, en fin de compte, toute amélioration significative de la conception des outils EDA est une balise bienvenue sur ce marché.

Pour le contexte, le marché des outils EDA a deux principaux concurrents, avec une capitalisation boursière combinée de 80 milliards de dollars et un chiffre d’affaires annuel combiné de 6,5 milliards de dollars. Toutes les grandes fonderies travaillent avec ces deux fournisseurs d’EDA, et il est activement encouragé à rester dans ces chaînes d’outils, plutôt que de créer la vôtre, pour maintenir la compatibilité.

Le PDG de Synopsys, Aart de Geus, devrait faire les présentations principales lors de deux prochains événements techniques de l’industrie des semi-conducteurs cette année : ISSCC et Hot Chips. Dans le cadre de ces discussions, Aart discutera de ce qui était considéré comme impossible il y a seulement quelques années : la voie à suivre pour trouver un moyen meilleur et automatisé de concevoir des puces grâce à l’utilisation de solutions d’apprentissage automatique. Dans le contexte des outils EDA, comme Google l’a démontré publiquement, les ingénieurs peuvent être aidés à créer de meilleurs processeurs, ou de la même manière, peu d’ingénieurs sont nécessaires pour créer un bon processeur. À ce stade, la conférence d’Aart à Hot Chips sera intitulée :

« L’intelligence artificielle nécessite-t-elle des architectes artificiels ? »

J’ai passé environ une heure à parler avec Aart de ce sujet et de ce que cela signifie pour l’industrie au sens large. La discussion aurait fait une excellente interview sur le sujet, même si malheureusement ce n’était qu’une discussion informelle ! Mais dans notre conversation, mis à part le simple fait que l’apprentissage automatique peut aider les équipes de conception de silicium à optimiser plus de variations avec de meilleures performances en une fraction du temps, Aart a clairement indiqué que la motivation et l’idée fondamentales de la loi de Moore, quelle que soit la manière exacte dont vous voulez interpréter ce que Gordon Moore a réellement dit, continue de faire avancer l’industrie à peu près de la même manière qu’elle l’a été au cours des 50 dernières années. La différence est maintenant que l’apprentissage automatique, en tant que révolution culturelle et industrielle, permet des architectures et des conceptions de calcul émergentes conduisant à une nouvelle vague de complexité, appelée complexité systémique.

Aart m’a également présenté la manière factuelle dont l’industrie des semi-conducteurs a évolué. À chaque étape de l’amélioration fondamentale, qu’il s’agisse d’une amélioration de la fabrication grâce à la lithographie des nœuds de processus telle que l’EUV ou des architectures de transistors comme FinFET ou Gate-All-Around, ou une innovation d’architecture topique pour différentes structures de silicium telles que le calcul haute performance ou la radiofréquence, nous en s’appuyant sur les architectes et la recherche pour permettre ces améliorations par étapes. Dans une nouvelle ère de conception assistée par apprentissage automatique, telle que la pointe de l’iceberg présentée par Google, de nouveaux niveaux d’innovation peuvent émerger, mais avec un nouveau niveau de complexité en plus.

Aart a décrit qu’à chaque saut majeur, comme le passage de plaquettes de 200 mm à 300 mm, ou de transistors planaires à FinFET, ou de DUV à EUV, tout repose sur l’économie – aucune entreprise ne peut faire le saut sans le reste de l’industrie. et les coûts de mise à l’échelle. Aart voit l’utilisation de l’apprentissage automatique dans la conception de puces, pour une utilisation à plusieurs couches d’abstraction, deviendra un avantage de facto que les entreprises utiliseront en raison de la situation économique actuelle – la nécessité d’avoir la disposition de silicium la plus optimisée pour l’utilisation cas requis. Être capable de produire 100 configurations différentes du jour au lendemain, plutôt qu’une fois tous les quelques jours, devrait révolutionner la façon dont les puces informatiques sont fabriquées au cours de cette décennie.


L’ère de la conception de puces accélérées par l’IA va être passionnante. Travail dur, mais très excitant.

Du point de vue de Synopsys, l’objectif de me présenter Aart et d’avoir la possibilité d’écouter son point de vue et de poser des questions était de me donner un avant-goût de sa conférence Hot Chips en août. Synopsys a quelques graphiques très intéressants à montrer, dont l’un m’a été fourni à l’avance ci-dessous, sur la façon dont son propre logiciel DSO.ai s’attaque à ces complexités de conception émergentes. Les concepts s’appliquent à tous les domaines des outils EDA, mais s’agissant d’une entreprise, Synopsys souhaite clairement montrer les progrès qu’elle a réalisés dans ce domaine et les avantages qu’elle peut apporter à l’ensemble de l’industrie.

Dans ce graphique, nous traçons la puissance en fonction du retard du fil. La meilleure façon de regarder ce graphique est de commencer par le point étiqueté en haut, qui indique Start Point.

  1. Point de départ, où une mise en page rapide de base est réalisée
  2. Cible client, ce dont le client serait satisfait
  3. Meilleur effort humain, où les humains arrivent après plusieurs mois
  4. Meilleur résultat DSO (non entraîné), où l’IA peut accéder en seulement 24 heures

Tous les petits points bleus indiquent un balayage complet de l’IA pour placer les blocs dans la conception. Sur 24 heures, les ressources de ce test présentent plus de 100 résultats différents, l’algorithme d’apprentissage automatique comprenant ce qui se passe où à chaque itération. Le résultat final est quelque chose de bien au-delà de ce que le client a besoin, en lui donnant un meilleur produit.

Il y a un cinquième point ici qui n’est pas étiqueté, et ce sont les points violets qui représentent des résultats encore meilleurs. Cela vient de l’algorithme DSO sur un réseau pré-entraîné spécifiquement à cet effet. L’avantage ici est que dans les bonnes circonstances, même un meilleur résultat peut être obtenu. Mais même dans ce cas, un réseau non formé peut également atteindre presque ce point, indiqué par le meilleur résultat DSO non formé.

Synopsys a déjà fait des révélations avec des clients, comme Samsung. Sur quatre projets de conception, le temps d’optimisation de la conception a été réduit de 86 %, passant d’un mois par jour, utilisant jusqu’à 80 % de ressources en moins et dépassant souvent les objectifs de conception humaine.

Je suis reparti avec plusieurs autres questions auxquelles j’espère qu’Aart répondra le moment venu.

Tout d’abord, je voudrais expliquer où se trouvent les feuilles de route pour améliorer l’apprentissage automatique dans la conception de puces. C’est une chose de créer un algorithme qui trouve un résultat potentiellement bon, puis de le mettre à l’échelle et de produire des centaines ou des milliers de configurations différentes du jour au lendemain, mais existe-t-il un maximum artificiel de ce qui peut être considéré comme « le meilleur », limité peut-être par la nature de l’algorithme utilisé ?

Deuxièmement, Aart et moi avons discuté de la compétition de Google avec Go Master et 18 fois champion du monde Lee Sedol, dans laquelle Google a battu le meilleur joueur de Go du monde 4-1 dans un jeu de société qui était considéré comme impossible seulement cinq ans auparavant pour que les ordinateurs se rapprochent de les meilleurs humains. Dans cette compétition, l’IA de Google DeepMind et le joueur humain ont effectué un mouvement « 1 sur 10 000 », ce qui est rare dans un jeu individuel, mais on pourrait dire qu’il est plus susceptible de se produire dans les interactions humaines. Ma question à Aart est de savoir si l’apprentissage automatique pour la conception de puces connaîtra jamais ces moments 1 sur 10 000, ou plutôt en termes plus techniques, le logiciel serait-il toujours en mesure de trouver le meilleur minimum global s’il restait bloqué dans un minimum local sur un si grand (1 sur 102500 combinaisons pour la conception de puces vs 1 sur 10230 dans Go) espace de recherche.

Troisièmement, et peut-être plus important encore, comment l’application de l’apprentissage automatique à différents niveaux de la conception peut violer ces couches. La plupart des conceptions de processeurs modernes reposent sur des « cellules standard » spécifiques et des blocs prédéfinis – il y aura des situations où des versions modifiées de ces blocs pourraient être meilleures dans certains scénarios de conception lorsqu’elles sont couplées à proximité de différentes parties de la conception. Avec tous ces éléments interagissant les uns avec les autres et ayant des effets d’interaction variables, la complexité réside dans la gestion de ces interactions au sein des algorithmes d’apprentissage automatique de manière efficace en termes de temps, mais la manière dont ces compromis sont faits reste un point à prouver.

Dans ma récente interview avec Jim Keller, je lui ai demandé si, à un moment donné, nous verrons la conception du silicium sembler insondable, même pour les meilleurs ingénieurs – il a dit « Ouais, et ça arrive assez vite ». C’est une chose de parler de manière holistique de ce que l’IA peut apporter au monde, mais c’en est une autre de la faire fonctionner pour améliorer la conception des semi-conducteurs et fournir un avantage fondamental au niveau de base de tout le silicium. J’attends avec impatience d’autres informations sur la conception de silicium accélérée par l’IA de Synopsys, ses concurrents et, espérons-le, des informations de ceux qui l’utilisent pour concevoir leurs processeurs.

Lecture connexe