Logo Zéphyrnet

L'IA prend de l'importance dans la conception de puces

Date :

Semiconductor Engineering s'est assis pour parler du rôle de l'IA dans la gestion des données et l'amélioration des conceptions, et de son rôle croissant dans l'orientation et la prévention de la corruption silencieuse des données, avec Michael Jackson, vice-président de la R&D chez Cadence ; Joel Sumner, vice-président de l'ingénierie des semi-conducteurs et de l'électronique chez National Instruments ; Grace Yu, responsable produit et ingénierie chez Meta, et David Pan, professeur au Département de génie électrique et informatique de l'Université du Texas à Austin. Ce qui suit sont des extraits de cette conversation, qui ont eu lieu devant un public en direct à DesignCon. La première partie de cette discussion est ici.

SE : Tout le monde et tout collectent une énorme quantité de données ces jours-ci. Où le stocke-t-on et pendant combien de temps ? Et comment déterminons-nous ce qui est pertinent ?

Sumner : Là où nous voyons l'IA appliquée en premier, ce sont les endroits qui disposent d'un stockage de données très volumineux et robuste. Nous avons la chance que l'infrastructure de test de production de semi-conducteurs soit gérée selon un format standard, ce qui vous permet de le mettre dans ces bases de données vraiment massives avec un bon marquage, ce qui est un succès et un échec. Cela nous a donné un tremplin pour rechercher ces choses et les utiliser comme point de preuve, car cela peut s'appliquer à de nombreuses autres industries pour la validation ou quoi que ce soit d'automatisé. Mais ces magasins de données n'existent pas vraiment de manière standard aujourd'hui dans de nombreux endroits. Là où cela existe, c'est là où nous voyons l'adoption.

SE : Toutes ces données seront-elles stockées au même endroit ? Et comment ces données seront-elles utilisées à l'avenir ?

Sumner: Il finira par être distribué pour un certain nombre de raisons. La première est que c'est juste pratique. Deuxièmement, il y a des données client impliquées. Vous ne pouvez donc pas forcément tout supprimer. Par exemple, nous exécutons des algorithmes d'IA à plusieurs endroits de la chaîne de conception. Nous les exécutons dans le cloud, mais également à proximité de l'endroit où les données sont acquises. Cela nécessite que les données soient distribuées. Mais en même temps, vous avez vraiment besoin de toutes les données que vous souhaitez examiner afin de former le modèle pour qu'il soit au même endroit et facilement accessible.

Casserole: Et vous pouvez utiliser ces données pour vous aider à prendre de meilleures décisions. Par exemple, nous pouvons générer des dizaines de milliers ou des mises en page différentes, puis effectuer la simulation, l'extraction et la mise en page finale. C'est complémentaire aux experts en conception.

Jackson: D'un point de vue EDA, la création de nouvelles données peut souvent se faire en permutant ou en créant de manière aléatoire des mises en page. Vous pouvez donc créer des problèmes de manière synthétique, et cela peut être une autre source de données. C'est l'un des avantages d'EDA.

SE : Compte tenu du volume de données, tout cela va-t-il se faire dans le cloud ou sera-t-il fait localement ? Nous parlons d'ensembles de données beaucoup plus volumineux, qui nécessitent beaucoup plus de puissance de calcul.

Jackson: Cela dépendra de l'entreprise. Je travaille sur la conception de circuits imprimés et nous travaillons sur l'IA, et il y a beaucoup de capacités de calcul dans le cloud qui permettent l'IA. Les petites entreprises peuvent accepter de conserver leurs données dans le cloud, mais les grandes entreprises voudront les exécuter dans leurs clouds privés.

Casserole: La confidentialité des données est définitivement une grande préoccupation. C'est un domaine important en termes d'apprentissage automatique. Mais vous n'êtes pas obligé de faire circuler vos données. Vous pouvez le chiffrer et ensuite faire du calcul homomorphe. L'informatique sécurisée est un domaine de recherche émergent. Ainsi, sans partager de données, vous pouvez toujours les vérifier.

Yu: Cela dépend du type de données dont nous parlons. Nous avons une politique très stricte sur la confidentialité des clients. Seules les personnes qui ont besoin d'accéder à ces données peuvent le faire. Chaque employé qui rejoint Meta suit une formation annuelle sur la confidentialité des données. Pour les données de conception, cela dépend du projet. Certaines données que nous stockons sur le serveur local, et nous utilisons le cloud pour notre accès aux mégadonnées, ainsi que pour la simulation et la validation. C'est donc au cas par cas.

SE : À mesure que le matériel vieillit, quel impact cela a-t-il sur le comportement de l'IA ?

Sumner: En ce qui concerne le vieillissement, il est important que vous parliez de l'environnement dans lequel l'IA fonctionne. Ce ne sont pas les algorithmes que nous voyons vieillir. Ce sont les données d'entraînement. Vous l'avez donc formé sur un ensemble particulier de données de fabrication, et ces données de fabrication ont été extraites d'un environnement de fabrication particulier. Et puis, avec le temps, les choses dérivent. Vous verrez l'une des deux situations. L'un est que l'ensemble du système dérive, et donc l'IA doit le détecter maintenant parce que l'ensemble du système s'est suffisamment éloigné de ses données d'entraînement initiales pour qu'il doive se réentraîner. La deuxième situation est celle où un appareil arrive avec quelque chose de si différent de tout ce qu'il a vu auparavant que l'algorithme doit dire: "Attendez, attendez, je ne suis pas la meilleure réponse ici". Je dois maintenant consulter un humain parce que c'est tout simplement trop loin. Ces deux éléments sont des exemples de dégradation du système. Un rafraîchissement constant est nécessaire.

Jackson: Je suis d'accord. Un recyclage constant est nécessaire pour faire face au vieillissement. Mais au fur et à mesure que le logiciel est exposé à un ensemble de formation de plus en plus large, il évolue également et devient plus efficace.

Casserole: Se recycler à partir de rien peut coûter très cher. Au lieu de cela, vous pouvez faire un apprentissage par transfert. Par exemple, il y a quelques années, nous avons travaillé sur la détection des points chauds. Lorsque vous détectez quelque chose à 14 nm et que vous migrez cela vers 7 nm, vous n'avez pas à repartir de zéro. Vous pouvez utiliser une architecture d'apprentissage automatique originale, mais vous pouvez commencer quelque part au milieu.

SE : L'un des gros problèmes aujourd'hui est la corruption silencieuse des données, qui est due à des défauts matériels. Pouvons-nous retracer cela à travers des systèmes utilisant l'IA et identifier le problème et la cause exacte ?

Yu: L'IA est comme n'importe quel autre outil. Ce n'est pas parfait. Mais le moyen d'éviter ces problèmes est d'avoir un humain dans la boucle pour effectuer fréquemment des tests de validation, peut-être en utilisant un scénario connu pour exécuter l'IA et l'ordinateur pour voir si nous obtenons le résultat attendu. En utilisant des approches simples comme celle-ci, vous pouvez identifier le problème, identifier l'inadéquation et approfondir ces domaines. Les ingénieurs ne sont pas parfaits et l'IA n'est pas parfaite. Pour vous améliorer constamment, vous devez vérifier et recouper plus souvent pour éviter ce genre de problèmes.

Jackson: Nous investissons massivement dans tout le domaine de la vérification en ce qui concerne l'accélération ou l'assistance aux personnes dans la conception, et le débogage des problèmes fonctionnels dans ces conceptions. Nous voyons donc cela comme un point idéal, et nous consacrons beaucoup d'énergie à l'IA.

SE : Est-ce que cela se fait uniquement au stade de la conception, ou est-ce tout au long du cycle de vie de la puce ?

Jackson: Dans une certaine mesure, c'est le cycle de vie de la puce. C'est le test de celui-ci, le déploiement et le débogage des problèmes

Sumner : Cette technologie fonctionne bien pour les choses qui nécessitent un nombre considérable de personnes pour participer et comprendre quelque chose, et pour pouvoir le faire tout en supprimant une grande partie du travail banal mais difficile. L'objectif ultime est que vous puissiez rentrer chez vous le soir, revenir le matin et obtenir un rapport indiquant : "J'ai parcouru des gigaoctets ou plus de données et voici l'endroit où vous devriez chercher". Et je ne dis pas qu'il y a un problème, mais il pourrait y en avoir, alors jetez un œil à cela. Il s'agit de prendre des problèmes d'aiguille dans une botte de foin et de les transformer en efforts ciblés sur la façon dont vous finissez par traiter un problème dans votre produit. Cela peut également être appliqué à la façon dont nous rendons nos algorithmes plus fiables, créant le sentiment que je peux compter sur cette chose car elle a été testée et je sais qu'elle provient d'une source fiable.

Casserole: Il existe des façons formelles de vérifier quelque chose et il y a la simulation. En fin de compte, nous avons besoin des deux pour une bonne couverture. Idéalement, nous voulons être en mesure d'identifier ces problèmes étranges qui provoquent une corruption silencieuse des données au début du processus. C'est un sujet de recherche assez actif aujourd'hui.

spot_img

Dernières informations

spot_img