Logo Zéphyrnet

Amélioration de l'efficacité, de la fiabilité et de l'adaptabilité des puces

Date :

Pierre Schneider, directeur de Division de l'ingénierie des systèmes adaptatifs de l'Institut Fraunhofer pour les circuits intégrés, s'est entretenu avec Semiconductor Engineering pour discuter de nouveaux modèles et approches pour garantir l'intégrité et la réactivité des systèmes, et comment cela peut être fait dans un budget de puissance donné et à différentes vitesses. Ce qui suit sont des extraits de cette conversation.

SE : Où concentrez-vous vos recherches aujourd'hui ?

Peter Schneider, directeur de la division Ingénierie des systèmes adaptatifs de l'Institut Fraunhofer pour les circuits intégrés

Peter Schneider, directeur de la division Ingénierie des systèmes adaptatifs de l'Institut Fraunhofer pour les circuits intégrésSchneider : Un grand sujet est l'intelligence artificielle. Nous construisons un laboratoire pour tester des prototypes de systèmes basés sur l'IA, en commençant par l'acquisition de données dans un environnement réel. Nous créons des configurations du monde réel dans l'automobile, la robotique et l'automatisation des bâtiments. Et puis nous prenons ces données et les utilisons dans un monde virtuel. Nous construisons donc des modèles, générons des données d'entraînement par modèles et avons une meilleure couverture des données dont vous avez besoin pour entraîner l'intelligence artificielle. Ensuite, du côté électronique, nous construisons nos propres appareils de pointe. À partir de là, nous réalisons un prototypage rapide et testons les systèmes dans le monde réel. Vous avez donc le cycle complet, de l'acquisition de données aux processus de développement virtuels, puis aux tests.

SE : Dans l'automobile et la robotique, vous avez besoin de beaucoup de processeurs très rapides partout où vous collectez les données, puis vous devez déplacer ces données vers une sorte de traitement centralisé. Quels types de défis rencontrez-vous là-bas ?

Schneider : Le principal défi pour le traitement des données des capteurs à la périphérie est la faible latence. Dans le domaine de la robotique, si vous avez des fonctions de sécurité, vous avez besoin d'un temps de réponse dédié pour ces fonctions. Vous avez donc besoin d'un traitement des données à la périphérie, ce qui implique la fusion de données, l'extraction de caractéristiques et le raisonnement dans le processus. C'est une combinaison de ce que vous pouvez vous permettre dans l'environnement réel parce que vous avez des ressources limitées, c'est pourquoi ces processus de développement sont si importants. Vous disposez de données de capteur locales et vous devez déterminer la réponse du système. Vous pouvez traiter les données localement ou les placer dans une infrastructure de serveur. Mais vous avez une surcharge de communication lorsque vous transférez les données et vous avez besoin d'une solution optimale qui inclut l'ensemble du contexte système. Il existe différents blocs de construction de base. Le traitement des données n'est qu'une activité parmi d'autres. Nous avons d'autres efforts en cours, développant des protocoles de communication sans fil à faible latence, qui partagent le même objectif. Si vous voulez une réponse rapide, vous avez besoin d'une faible latence dans toute la boucle de traitement des données.

SE : Cela se résume également à l'exactitude et à la précision, n'est-ce pas ?

Schneider : Oui, et c'est une question de ressources. Nous avons un algorithme d'intelligence artificielle/apprentissage automatique, vous pouvez donc effectuer un traitement avec quatre bits ou huit bits. Peut-être que cela fonctionne avec quatre bits, mais vous devez déterminer quelle est la bonne solution pour le contexte de l'application, et c'est un problème de conception. Nous acquérons les données, les mettons dans une infrastructure de serveur, puis nous utilisons tous ces frameworks. Vous avez donc un algorithme qui fonctionne bien, puis vous passez de l'algorithme du serveur. Vous pouvez réduire la topologie du réseau, les pondérations et le nombre de bits de données dont vous disposez. Cela dépend de l'application. C'est pourquoi il est si important pour nous d'avoir cette configuration du monde réel pour générer toutes les données du monde réel.


Fig. 1 : Vers une meilleure IA. Source : Fraunhofer IIS EAS

SE : Certaines données sont critiques, d'autres non. Comment priorisez-vous ? Il y a beaucoup de pièces mobiles ici.

Schneider : Plus longue portée, nous travaillons dans le domaine de la communication sans fil pour co-concevoir l'application et le système de communication pour une application ou une qualité de service spécifique. Disons qu'un robot est utilisé pour une sorte de processus de manipulation. Vous pouvez le contrôler avec une communication sans fil, et si vous avez des perturbations dans la communication sans fil, vous pouvez passer en mode de sécurité intégrée ou arrêter le système ou réduire la vitesse. Si vous réduisez la vitesse de l'opération de manutention, celle-ci peut continuer. Et si la communication sans fil s'améliore, elle peut accélérer. Cela peut être utilisé pour contrôler les processus dans l'automatisation industrielle. C'est une nouvelle approche. Normalement, s'il y a un problème dans le système de communication sans fil, il s'arrête et un travailleur doit comprendre ce qui se passe, puis appuyer sur un bouton pour le remettre en marche. Avec des systèmes adaptatifs, il pourrait être beaucoup plus flexible, évitant les arrêts de production.

SE : Jusqu'où en est-il ?

Schneider : C'est encore loin d'une utilisation pratique dans un environnement de production, mais nous travaillons sur un projet et nous avons de bons résultats.

SE : Vous avez mentionné une meilleure couverture dans l'espace des données. Qu'est-ce que cela implique?

Schneider : Lorsque vous vous entraînez sur des images ou quelque chose comme ça, il y a d'énormes ensembles d'entraînement. Vous pouvez donc avoir des photos d'un chat ou d'un chien ou quelque chose comme ça, mais si vous allez dans l'automatisation industrielle et que vous avez affaire à des problèmes de maintenance ou des problèmes dans le processus de production, vous travaillez avec des événements rares. J'ai beaucoup de données indiquant que le processus de production fonctionne parfaitement, puis très peu d'événements liés à une erreur. Normalement, avec ce type de données, vous ne pouvez pas très bien former le formateur ou l'algorithme d'apprentissage automatique. Ce dont vous avez besoin, c'est d'un bon rapport entre le bien et le mal, et vous n'en avez pas. Vous collectez donc tous ces événements rares, mais cela prend beaucoup de temps et vous n'avez toujours pas une image complète. C'est pourquoi nous proposons une approche où vous avez un modèle nominal d'un processus de production. Vous pouvez le valider avec une masse de données. Nous avons des cas d'erreur ou un comportement défectueux, et vous pouvez ajouter des modèles de défaillance à ce modèle et générer des données de défaillance ou des ensembles de données défectueux. Cela offre une meilleure couverture de l'ensemble de l'espace de données.

SE : C'est différent des jumeaux numériques, qui sont essentiellement un modèle vivant, n'est-ce pas ? Le problème, c'est la quantité d'énergie nécessaire pour les faire fonctionner et les mettre à jour.

Schneider : Oui, et c'est un gros problème. De plus, vous avez besoin d'une méthodologie pour gérer la précision du modèle et gérer la complexité de l'informatique au bon niveau. C'est un équilibre. Dans le passé, nous avons beaucoup travaillé sur la modélisation de systèmes basés sur les MEMS et sur la mesure du comportement d'une structure MEMS complexe telle qu'un gyroscope. Normalement, pour la conception de l'électronique, vous n'avez besoin que d'aspects spécifiques du comportement de cette structure microélectromécanique complexe. Nous avons appliqué nos méthodes de réduction d'ordre de modèle, où vous pouvez réduire le nombre de degrés de liberté. Cela, à son tour, diminue considérablement la complexité numérique. Cela peut dépendre du fait que vous ayez un comportement non linéaire ou linéaire à partir des caractéristiques de vibration, par exemple.

SE : Où vont vos recherches sur les tests ?

Schneider : Si vous avez un système hiérarchique, vous avez des capteurs, des actionneurs et l'environnement. Vous pouvez tester à différents niveaux. Vous pouvez effectuer un test au niveau de la puce pour la puce, un test de package pour un nœud de capteur intégré 3D et vous pouvez effectuer des tests de systèmes en contexte. Avec les capteurs, nous utilisons une approche de test hiérarchique. Nous pouvons présenter des données de test de l'environnement réel. Cela a un impact sur les capteurs, ce qui provoque des signaux électriques dans le composant électronique. Ce que nous essayons de faire, c'est de traduire ces cas de test d'un contexte système dans un contexte électronique. Dans notre laboratoire, nous pouvons faire des mesures de dégradation pour le vieillissement. Et de l'autre côté du laboratoire, nous avons une voiture, où nous pouvons tester des cycles automobiles typiques et mesurer l'impact des conditions environnementales sur un calculateur ou un autre système. Ensuite, nous traduisons cela au niveau de la plaquette, où nous pouvons examiner l'impact des données environnementales ou de la température.

SE : Donc, en gros, vous examinez des données en quatre dimensions – x, y et z, au fil du temps ?

Schneider : Oui. Et nous ne pouvons pas résoudre tous les problèmes pour le moment, mais c'est notre vision.

SE : En mettant tout cela en perspective, l'objectif est-il de mieux tester ou développer et comprendre les modèles de données ?

Schneider : Nous recherchons un pont entre les connaissances qui peuvent être encapsulées dans des modèles et les combiner avec les données. Il existe un lien étroit entre les modèles basés sur les données et les modèles physiques. C'est très important. Traditionnellement, nous nous sommes concentrés sur les modèles, mais nous faisons beaucoup de développement, de collecte de données et d'analyse de données. La meilleure façon d'avancer est de combiner les deux mondes.

SE : Le défi est qu'il y a tellement de données, et beaucoup d'entre elles sont en mouvement, ce qui augmente le nombre de variables. Comment abordez-vous cela?

Schneider : Le seul moyen est de l'abstraire d'une couche spécifique. Vous ne pourrez pas analyser toutes les données d'une puce de 60 nm au niveau fonctionnel d'un système automobile. Vous avez besoin d'une abstraction d'une fonction électrique, puis vous devez l'amplifier. Bien sûr, vous devez valider ce comportement de haut niveau est une bonne représentation des détails, mais c'est dans la méthodologie.

SE: C'est essentiellement la couverture du modèle, n'est-ce pas?

Schneider : Oui, et vous avez besoin d'une vue unifiée des cas de test. Nous faisons du développement de systèmes virtuels, traitant de l'ingénierie des exigences. Au sommet, vous avez un niveau d'exigences, puis vous abordez étape par étape l'architecture de mise en œuvre ou les décisions de conception. Et si vous avez cette vue cohérente sur toutes ces couches, vous définissez les exigences, puis vous générez des cas de test.

SE : Vous modélisez donc les modèles ?

Schneider : Oui. UVM est une méthode que nous utilisons, et elle fournit une bonne base pour ces tests et une vue cohérente à tous les niveaux.

spot_img

Dernières informations

spot_img

Discutez avec nous

Salut! Comment puis-je t'aider?