Logo Zéphyrnet

L'EDA fait une poussée frénétique dans l'apprentissage automatique

Date :

L'apprentissage automatique devient une condition préalable concurrentielle pour l'industrie de l'EDA. Les grands fabricants de puces l'approuvent et l'exigent, et la plupart des entreprises EDA le déploient pour une ou plusieurs étapes du flux de conception, avec des plans pour en ajouter beaucoup plus au fil du temps.

Ces dernières semaines, les trois plus grands fournisseurs d'EDA ont fait des annonces radicales sur l'intégration du ML dans leurs outils lors de leurs événements utilisateurs respectifs, et l'ensemble de l'industrie des puces se dirige dans la même direction. L'apprentissage automatique est un choix naturel pour la conception de puces. Il enseigne à une machine comment effectuer une tâche spécifique basée sur la reconnaissance de formes, et les résultats sont généralement très précis.

Cela contraste avec l'IA plus large, qui, malgré une confusion généralisée parce que ces termes sont souvent utilisés de manière interchangeable, permet à une machine de fonctionner de manière plus indépendante. L'IA complète nécessite beaucoup plus de données pour la formation, et les résultats sont généralement fournis sous forme de probabilités. Plus il y a de données - et plus ces données sont pertinentes - meilleure est la précision, c'est pourquoi une grande partie de la formation à l'IA dans les téléphones intelligents et les automobiles se fait dans des centres de données à grande échelle.

La quantité de données utilisées dans la conception de puces est relativement faible et les problèmes sont extrêmement complexes et souvent spécifiques à la conception. Ainsi, alors que les fournisseurs d'EDA continuent d'expérimenter l'IA pour diverses utilisations, la mise en œuvre initiale s'articule autour d'un sous-ensemble appelé apprentissage par renforcement. Ce sont, avec l'apprentissage supervisé et non supervisé, les trois principales approches d'apprentissage automatique. L'apprentissage par renforcement récompense essentiellement le comportement sur une échelle mobile, avec la récompense la plus élevée pour un comportement optimal, et il ajuste dynamiquement ce comportement en fonction d'une rétroaction continue.

"Pensez à la conception physique d'une puce et aux tests que vous effectuez dessus", a déclaré Joseph Sawicki, vice-président exécutif d'IC ​​EDA chez Siemens Digital Industries Software. "Il existe littéralement des milliards et des milliards de modèles, et vous pouvez corréler ces modèles à l'endroit où ils se trouvent sur certains segments nets et ainsi de suite. Ensuite, vous obtenez des données de test qui vous disent : "Cette conception a échoué". J'exécute des vecteurs supplémentaires et j'obtiens un tas de journaux d'échec différents, qui me disent tous que dans certains cônes de logique, j'ai un échec. Alors maintenant, j'ai une conception de circuit massive et ces cônes de logique, et je peux jeter un œil à un réseau de neurones qui peut être formé pour montrer que, compte tenu de cette conception physique, il semble que ce cône de logique est mauvais et mon les échecs sont susceptibles d'être dans ce domaine. Ensuite, je peux établir une corrélation avec les schémas physiques et obtenir un échec. Dans un cas, nous avons dit à un client : "Votre dépôt de tungstène Via 5 qui se produit dans cette usine sur cette ligne est ce qui est mauvais". Et bien sûr, c'était hors spécifications.

Cela permet également une expérimentation beaucoup plus large dans un laps de temps plus court. "La façon dont cela a été fait dans le passé est que généralement les utilisateurs exécutent différentes combinaisons et ils arrivent à un certain PPA", a déclaré Sassine Ghazi, président et chef de l'exploitation chez Synopsys. « Maintenant, le système examine tout cet espace d'optimisation et lance intelligemment plusieurs tâches. Parfois, il lance le travail, et à 10 %, il le tue parce qu'il sait qu'il ne mènera nulle part mieux. Ensuite, il sauvegarde et lance une branche différente, et il dit: "C'est le meilleur résultat que je puisse fournir."


Fig. 1 : Modèle d'apprentissage par renforcement. Source : Synopsis

Mise en perspective, la complexité de la conception dépasse de loin les capacités du cerveau humain à trier toutes les combinaisons et interactions possibles dans un laps de temps raisonnable.

"Nous utilisons l'IA/ML pour certains de nos modèles et caractérisations d'appareils", a déclaré Niels Faché, vice-président et directeur général de PathWave Software Solutions chez Keysight. "Chaque fois que vous envisagez d'optimiser des conceptions et que vous exécutez de nombreuses simulations, cela peut rendre le processus beaucoup plus efficace. Pensez à un système 6G, par exemple, où vous devez configurer différents canaux. L'approche standard consiste à simuler de nombreuses conditions différentes, et cela peut prendre beaucoup de temps pour trouver le résultat optimal. Nous pouvons considérablement accélérer ce processus. Donc, avec la 6G, il y aura un très gros jeu pour cela, et c'est quelque chose sur lequel nous travaillons. »

De même, Ansys l'utilise pour des applications telles que la création de réseaux électriques. "Cela se fait très tôt dans la phase de planification d'étage", a déclaré Marc Swinnen, directeur du marketing produit chez Ansys. "Il y a quelques questions de base, comme combien de sangles y aura-t-il, quel type de pas et quelle sera la largeur de ces sangles ? Combien de vias dois-je mettre sur les coins ? Combien de bagues ? Ce sont des questions architecturales de base, et il existe de très nombreuses combinaisons possibles. Quelles couches allons-nous utiliser ? Nous avons une application où vous pouvez caractériser cela à travers une demi-douzaine de paramètres et déterminer le pas optimal et la densité via optimale pour vous donner la meilleure puissance. Thermique arrive également plus tôt que prévu. Lorsque nous avons commencé à travailler sur l'électrothermique, nous envisagions la signature, mais il est très vite devenu évident que les gens étaient surtout concernés au départ par la phase de prototypage. Ils voulaient des estimations rapides de la façon dont ils pourraient assembler ces systèmes multi-die, ou même la planification au sol des blogs, parce que si vous le planifiez mal au début et que vous ne caractérisez le thermique qu'à la fin et que vous placez deux choses très chaudes à proximité ensemble, c'est un désastre. Il est très difficile de s'en remettre, donc cela doit se produire plus tôt dans le flux.

Démarrage à chaud vs démarrage à froid
L'apprentissage par renforcement, en particulier, peut considérablement aider les équipes de conception à obtenir de meilleurs résultats plus rapidement, à la fois pour une nouvelle conception et pour les dérivés de cette conception.

"L'un des principaux avantages de ce type de nouvel apprentissage par renforcement est d'appliquer une automatisation que l'industrie de l'EDA n'a pas appliquée auparavant", a déclaré Anirudh Devgan, président et chef de la direction de Cadence. « L'un de nos gros clients m'a dit qu'il pensait que Place-and-Route était le logiciel commercial le plus sophistiqué jamais écrit. Et il y a beaucoup de complications dans beaucoup de ces programmes, qu'il s'agisse de vérification, de placement et d'acheminement ou d'analogie. Mais ce qu'EDA n'a jamais fait pour optimiser plusieurs exécutions. Donc, vous faites une course, vous obtenez une entrée, vous obtenez une sortie. Et lorsque vous passez à l'exécution suivante, il n'y a pas de transfert de connaissances. »

Le transfert de connaissances est l'un des grands avantages de l'apprentissage par renforcement. Il collecte essentiellement des données et les stocke dans un référentiel.

"La connaissance que quelque chose a fonctionné dans le passé est dans la tête de plusieurs personnes", a déclaré Thomas Andersen, vice-président de l'IA et de l'apprentissage automatique chez Synopsys. « Que se passe-t-il lorsque ces personnes changent d'entreprise ? Ou que se passe-t-il lorsqu'ils se trouvent dans des endroits différents et qu'ils ne se parlent même pas ? Vous pourriez trouver quelqu'un à la fontaine à eau qui vous dira : « Hé, tu devrais essayer ça parce que ça te donne plus de puissance. La beauté de ce système est qu'il apprend le comportement des conceptions et crée des modèles statistiques. Ainsi, la prochaine fois que je ferai une évolution de la conception - qui peut être différente, mais aussi beaucoup de réutilisation - je pourrai commencer avec toutes ces connaissances.

C'est ce qu'on appelle un « démarrage à chaud », et avec des conceptions de plus en plus complexes et des fenêtres de marché de plus en plus réduites, cela peut améliorer le délai de mise sur le marché sans avoir à tout repenser.

"Avec un démarrage à froid, vous apprenez à partir de zéro", a déclaré Devgan de Cadence. « Un démarrage à chaud peut se faire au sein d'une entreprise, et cela fonctionne pour certains blocs communs. C'est le prochain modèle à réutiliser. Pour une IP commune, vous pouvez travailler avec la fonderie sur un modèle pré-formé. Toutes les données sont là dans l'entreprise. Vous exploitez vos propres données.

L'approche s'appuie sur des données qui peuvent être collectées à travers de nombreux démarrages de conception. "EDA est la cible idéale pour utiliser l'apprentissage automatique par correspondance de modèles", a déclaré Steve Roddy, CMO chez Quadrique. « Vous avez des algorithmes min-cut sur les stéroïdes. Vous avez des milliards de choses à placer et vous devez essayer de minimiser les câbles qui traversent les frontières. Il y a eu des itérations successives d'algorithmes qui alimentent différents outils EDA, et ils utilisent tous des heuristiques complexes pour comprendre : "Si je dois placer toutes ces choses, donnez-moi la longueur de fil moyenne la plus courte, le nombre minimum de fils et croisements.' C'était facile quand nous avions deux ou trois couches de métal. Il y a maintenant 14 couches de métal et 82 masques à 3 nm. Mais vous avez un historique de milliers de tâches de placement et de routage qui ont été exécutées dans votre chaîne d'outils. Quelle meilleure base de données de formation pour la correspondance de modèles et la construction d'une sorte d'apprentissage automatique ? Ainsi, pour la prochaine série de RTL que vous ingérez, vous pouvez dire : "Je reconnais cela". Et c'est tout ce qu'est vraiment l'apprentissage automatique.

Plus de données, plus de capacité
L'IA complète est plus éloignée et beaucoup plus difficile à obtenir. Les fournisseurs d'EDA commencent à l'utiliser partout où il y a suffisamment de données et où le processus prend tellement de temps qu'il justifie l'effort, mais jusqu'à présent, son utilisation est limitée.

"Si vous vous entraînez sur 3 milliards d'images, vous pouvez apprendre à quoi ressemble une chèvre et à quoi ressemble une maison", a déclaré Jeff Dyck, directeur principal de l'ingénierie chez Siemens Digital Industries Software. « Vous avez besoin d'une tonne de données pour faire cela. Ce que nous faisons ici est différent. La raison pour laquelle nous exécutons une simulation sur quelque chose est que nous ne connaissons pas réellement la réponse. On ne sait pas à quoi ça ressemble. Nous ne l'avons jamais vu auparavant. C'est une nouvelle conception, ou peut-être une conception évoluée sur une nouvelle version de processus ou quelque chose comme ça. Et donc la façon dont nous le gérons est que nous recommençons tout simplement. Nous ne prenons pas d'anciennes données de conception et espérons que la prochaine chose se comportera de la même manière, car dans le monde réel de la conception de puces, ce n'est pas le cas. Donc, la formation sur les grands ensembles de données pour ce que nous faisons n'a pas beaucoup aidé. Nous utilisons des données historiques, et il y a des endroits où cela a du sens, comme si vous faisiez une autre itération sur la même conception. Mais si vous vous entraînez sur tout un tas de choses et que vous espérez que la prochaine chose qui n'a jamais été vue auparavant ressemblera à ça, ce n'est pas si utile.

Il ne s'agit pas seulement de plus de données. Il s'agit également de bonnes données. "Mes projets, à la fin, ont réalisé qu'ils recevaient trop de données, et parfois ils recevaient les mauvaises données", a déclaré Monica Farkash, membre principal de l'équipe technique d'AMD, lors d'une récente table ronde. « La plupart du temps, nous allions simplement chercher les données, faire l'analyse et nous rendre compte qu'elles sont redondantes. C'était des données inutiles. Il y a du bruit, il y a tellement d'autres choses qui y sont jetées sans discernement. Nous avons fini par utiliser parfois 20 % des données, parfois même moins que cela, et pas exactement la forme et la forme requises. »

Cela fait partie de la raison pour laquelle l'utilisation complète de l'IA est beaucoup plus limitée aujourd'hui que l'apprentissage automatique. Les fournisseurs ont été très sélectifs quant à l'endroit où ils appliquent l'IA, ce qui, si cela fonctionne, représenterait un changement massif dans la conception des puces.

"La vraie valeur de l'IA réside dans l'optimisation", a déclaré Devgan de Cadence. «La correspondance de modèles, qui était les premiers jours de l'IA, est utile, et nous effectuons le traitement de la géométrie et la correspondance des modèles. Mais la vraie valeur est l'optimisation de la prise de décision. Quel est le meilleur cadre ? Nous avons eu toutes sortes de méthodes d'optimisation, qui étaient basées sur le gradient. Mais ce que l'IA permet, c'est une optimisation non basée sur les gradients, ce que permet l'apprentissage par renforcement, afin que nous puissions appliquer l'optimisation à des choses auxquelles nous ne l'avons jamais appliquée.

Qu'il s'agisse d'IA complète ou d'apprentissage automatique, il existe un potentiel pour un changement beaucoup plus fondamental dans l'industrie. Dans le passé, les données les plus précieuses sur ce qui fonctionnait dans une conception et sur ce qui ne fonctionnait pas provenaient de l'usine. À partir de là, les informations ont été transmises aux équipes de conception et aux sociétés EDA, qui se plaignaient régulièrement de ne jamais recevoir suffisamment de données. Cette situation s'est améliorée au fil des ans, mais elle est toujours déséquilibrée. Avec l'IA/ML, les données doivent circuler dans deux directions, et elles peuvent potentiellement être combinées d'une manière qui était auparavant considérée comme irréalisable.

"Dans la conception physique, l'une des choses sur lesquelles nous travaillons concerne les informations sur les défauts que vous obtenez de l'usine", a déclaré Sawicki. "Et maintenant, je veux lier cela pour comprendre comment mes modèles d'image sont liés à cela pour en savoir plus sur les autres modèles qui pourraient mal tourner. Cela se fait sur la même infrastructure d'outils que d'autres parties de Calibre, par exemple, qui sont utilisées pour faire de l'apprentissage automatique, OPC, etc. Vous pouvez ainsi mettre en place une infrastructure commune autour de plusieurs applications différentes. Cela ne signifie pas nécessairement que vous avez ce moteur d'IA qui fonctionne pour Calibre et la vérification fonctionnelle. Ce sont des problèmes très différents. Mais il y a beaucoup d'interaction entre les endroits où les gens vont apprendre.

Conclusion
Il est important de faire la distinction entre l'apprentissage automatique, qui est un sous-ensemble de l'IA, et l'IA plus large, qui est beaucoup plus difficile à appliquer dans l'EDA. Souvent, les termes sont utilisés de manière interchangeable, même dans les noms d'outils. Mais la véritable IA n'est appliquée que lentement à la conception de semi-conducteurs, car il faut du temps pour déterminer si les résultats sont suffisamment précis, cohérents et évolutifs.

La conception des semi-conducteurs devient beaucoup plus complexe et, à mesure qu'elle évolue vers des boîtiers avancés, elle devient également beaucoup plus spécifique à un domaine et hétérogène. Trouver des modèles qui couvrent plusieurs parties d'une conception, puis déterminer ceux qui s'appliquent à d'autres conceptions ou même à des dérivés, est un énorme défi pour les entreprises d'EDA. Mais cela nécessite également plus d'expertise que l'industrie des puces n'en a aujourd'hui pour réaliser le potentiel.

"Afin d'appliquer l'intelligence artificielle aux solutions d'apprentissage, vous avez besoin de personnes qui savent ce qu'elles font", a déclaré Farkash d'AMD. « Nous devons les éduquer, attendre qu'ils sortent de l'école et nous aider là où nous devons aller. Mais d'un autre côté, il faut craindre les gens qui pensent savoir ce qu'ils font. Ce sera donc le plus grand défi. L'opportunité est facile. J'ai travaillé sur deux douzaines de sujets différents dans lesquels j'ai appliqué des processus d'apprentissage automatique, et où que je regarde, je vois une opportunité - principalement pour l'exploration, la vérification et la simulation de conception. Il y en a partout."

spot_img

Dernières informations

spot_img