Logo Zéphyrnet

Achronix sur la sélection de plates-formes pour l'IA à la périphérie

Date :

Colin Alexander (directeur du marketing produit chez Achronix) a récemment publié un webinaire sur ce sujet. À seulement 20 minutes, le webinaire est une vision facile et une mise à jour utile sur le trafic de données et les options de mise en œuvre. Les téléchargements sont toujours dominés par la vidéo (plus de 50 % pour Facebook) qui dépend désormais fortement de la mise en cache à la périphérie ou à proximité. Laquelle de celles-ci s'applique dépend de votre définition de « bord ». Le monde de l'IoT se considère comme la périphérie, le monde du cloud et de l'infrastructure voit apparemment le dernier nœud de calcul de l'infrastructure, avant ces périphériques feuilles, comme la périphérie. Pomme de terre, pomme de terre. Dans tous les cas, la vue infrastructure de la périphérie est l'endroit où vous trouverez la mise en cache vidéo, pour servir les téléchargements les plus populaires aussi efficacement et aussi rapidement que possible.

Achronix sur la sélection de plates-formes pour l'IA à la périphérie

Options de calcul à la périphérie (et dans le cloud)

Colin parle d'abord de la périphérie de l'infrastructure où une certaine puissance est nécessaire en calcul et en IA. Il présente les options standards : CPU, GPU, ASIC ou FPGA. Une solution basée sur CPU offre la plus grande flexibilité car votre solution sera entièrement basée sur un logiciel. Pour la même raison, ce sera aussi généralement l'option de latence la plus lente, la plus gourmande en énergie et la plus longue (pour un aller-retour vers les nœuds feuilles, je suppose). Les GPU sont un peu meilleurs en termes de performances et de puissance avec un peu moins de flexibilité que les CPU. Un ASIC (matériel personnalisé) sera le plus rapide, la plus faible puissance et la plus faible latence, bien que dans le concept le moins flexible (toutes les intelligences sont dans le matériel qui ne peut pas être changé).

Il présente le FPGA (ou FPGA/eFPGA embarqué) comme un bon compromis entre ces extrêmes. Meilleur sur les performances, la puissance et la latence que le CPU ou le GPU et quelque part entre un CPU et un GPU sur la flexibilité. Bien mieux qu'un ASIC sur la flexibilité car un FPGA peut être reprogrammé. Ce qui est tout à fait logique pour moi, même si je pense que l'histoire aurait dû être complétée en ajoutant des DSP à la gamme de plates-formes. Ceux-ci peuvent avoir des avantages matériels spécifiques à l'IA (vectorisation, baies MAC, etc.) qui améliorent les performances, la puissance et la latence. Tout en conservant la flexibilité du logiciel. L'autre considération importante est le coût. C'est toujours un sujet sensible, bien sûr, mais les processeurs, GPU et FPGA compatibles avec l'IA peuvent être coûteux, un problème pour la nomenclature d'un nœud périphérique.

L'argument de Colin me semble le plus logique à la périphérie pour eFPGA intégré dans un SoC plus grand. Dans une application cloud, les contraintes sont différentes. Une carte d'interface réseau intelligente n'est probablement pas aussi sensible au prix et il peut y avoir un avantage en termes de performances dans une solution basée sur FPGA par rapport à une solution basée sur un logiciel.

La prise en charge des applications d'IA à la périphérie du calcul via un eFPGA semble être une option qui mérite d'être étudiée plus avant. Plus loin vers les nœuds feuilles, c'est flou pour moi. Un tracker logistique ou un capteur d'humidité du sol n'hébergera certainement pas un calcul important, mais qu'en est-il d'une télécommande TV à commande vocale ? Ou un micro-onde intelligent ? Les deux ont besoin d'IA mais aucun n'a besoin de beaucoup de puissance. Le micro-ondes est alimenté par câble, mais une télécommande de téléviseur ou une enceinte intelligente à distance fonctionne sur piles. Il serait intéressant de connaître les compromis eFPGA ici.

Capacités eFPGA pour l'IA

Selon la fiche technique, Speedster 7t offre des MAC entiers entièrement fracturables, une virgule flottante flexible, une prise en charge native de bfloat et des multiplications matricielles efficaces. Je n'ai trouvé aucune donnée sur TOPS ou TOPS/Watt. Je suis sûr que cela dépend de la mise en œuvre, mais des exemples seraient utiles. Même à la périphérie, certaines applications sont très sensibles aux performances - la surveillance intelligente et la détection d'objets orientés vers l'avant dans les voitures par exemple. Il serait intéressant de savoir où eFPGA pourrait s'intégrer dans de telles applications.

Webinaire stimulant. Vous pouvez le regarder ICI.

Partagez cet article via:

spot_img

Dernières informations

spot_img