Logo Zéphyrnet

Perspectives 2024 avec Da Chuang d'Expedera – Semiwiki

Date :

Da Chuang 2

Expedera fournit une adresse IP de semi-conducteur de moteur neuronal personnalisable qui améliore considérablement les performances, la puissance et la latence tout en réduisant le coût et la complexité des applications d'inférence d'IA de pointe. Da est co-fondateur et PDG d'Expedera. Auparavant, il était cofondateur et COO de Memoir Systems, une startup IP de mémoire optimisée, qui a conduit à une acquisition réussie par Cisco. Chez Cisco, il a dirigé les ASIC de commutateur de centre de données pour les produits Nexus 3/9K, MDS et CSPG. Da apporte plus de 25 ans d'expérience ASIC chez Cisco, Nvidia et Abrizio. Il est titulaire d'un BS EECS de l'UC Berkeley et d'une MS/PhD EE de Stanford. Basée à Santa Clara, en Californie, la société possède des centres de développement technique et des bureaux de support client au Royaume-Uni, en Chine, au Japon, à Taiwan et à Singapour.

Parlez-nous un peu de vous et de votre entreprise.

Je m'appelle Da Chuang et je suis le co-fondateur et PDG d'Expedera. Fondée en 2018, Expedera a bâti sa réputation en fournissant la première IP NPU personnalisable pour les applications d'inférence de périphérie, des nœuds de périphérie et des smartphones à l'automobile. Notre NPU Origin, maintenant dans sa 4tharchitecture de génération, prend en charge jusqu'à 128 TOPS dans un seul cœur tout en offrant des efficacités de traitement et d'énergie de pointe pour la plus large gamme de réseaux neuronaux, notamment RNN, CNN, LSTM, DNN et LLM.

-Quel a été le moment le plus excitant de 2023 pour votre entreprise ?

>>2023 a été une année de croissance formidable pour Expedera. Nous avons ajouté deux nouveaux sites physiques à notre entreprise, Bath (Royaume-Uni) et Singapour. Ces deux bureaux se concentrent sur la R&D future, le développement d'architectures d'IA de nouvelle génération, ainsi que d'autres choses dont vous entendrez parler dans les mois et les années à venir. Bien que cela soit très excitant pour nous, le point culminant le plus important pour Expedera en 2023 a peut-être été la croissance de nos clients et de nos déploiements. Nous avons commencé l'année avec la nouvelle que notre IP avait été livrée dans plus de 10 millions d'appareils grand public, ce qui représente un nombre notable pour toute startup IP de semi-conducteurs. Tout au long de l'année, nous avons continué d'élargir notre clientèle, qui comprend désormais des constructeurs OEM de smartphones de premier plan dans le monde entier, des chipsets d'appareils grand public et des fabricants de puces automobiles. Notre solution NPU est reconnue mondialement comme la meilleure du marché, et les clients font appel à nous lorsqu'ils souhaitent bénéficier du meilleur moteur d'IA pour leurs produits.

-Quel a été le plus grand défi auquel votre entreprise a été confrontée en 2023 ?

>>Le plus grand défi en 2023, ainsi que la plus grande opportunité, a été l'émergence des grands modèles linguistiques (LLM) et de la diffusion stable (SD) dans l'espace de l'IA de pointe. Les LLM/SD représentent un changement de paradigme dans l'IA : ils nécessitent un traitement plus spécialisé et plus de puissance de traitement que les réseaux CNN/RNN typiques que la plupart des clients déployaient en 2022 et avant. Le grand nombre d’applications basées sur LLM/SD que nos clients mettent en œuvre est incroyable à voir. Cependant, le principal défi des LLM et SD en périphérie a été de permettre à ces réseaux de fonctionner dans les limites de puissance et de performances d'un périphérique de périphérie alimenté par batterie.

-Comment le travail de votre entreprise relève-t-il ce plus grand défi ?

>> Nos clients souhaitent proposer des produits différenciés par l'IA ; des produits qui apportent une réelle valeur au consommateur avec une expérience utilisateur fantastique. Cependant, les atteintes significatives à la durée de vie de la batterie ne sont pas acceptées dans le cadre de l'expérience utilisateur. Alors que nous avons intégré le support LLM et SD dans notre version 4 désormais disponibleth architecture de génération, notre objectif de conception s'est concentré sur la fourniture de l'IP NPU la plus efficace en termes de mémoire, d'utilisation la plus élevée et de latence la plus faible que nous puissions construire. Nous avons exploré le fonctionnement sous-jacent de ces nouveaux types de réseaux ; mouvements de données, propagations, dépendances, etc… pour comprendre la bonne façon de faire évoluer nos architectures matérielles et logicielles pour répondre au mieux aux besoins futurs. À titre d'exemple de la façon dont nous avons évolué, nos 4th L'architecture de génération comprend de nouvelles multiplications matricielles et des blocs vectoriels optimisés pour les LLM et SD, tout en conservant notre efficacité de traitement leader sur le marché dans les réseaux traditionnels de style RNN et CNN.

-Quel sera selon vous le plus grand domaine de croissance pour 2024, et pourquoi ?

>> L'un de nos plus grands domaines de croissance est que, d'ici 2024, nous prendrons en charge une variété croissante de déploiements d'IA dans les automobiles. Bien que la plupart soient probablement familiers avec l’utilisation de l’IA dans la pile de conduite autonome pour les réseaux visuels, de nombreuses autres opportunités et utilisations émergent. Certes, nous constatons une montée en flèche de l’utilisation du LLM dans l’automobile, comme sur de nombreux autres marchés. Cependant, nous constatons également une utilisation accrue de l'IA dans d'autres aspects de la voiture : attention du conducteur, détection des passagers arrière, infodivertissement, maintenance prédictive, personnalisation et bien d'autres. Tous ces éléments visent à offrir au consommateur la meilleure expérience utilisateur possible, l’une des principales raisons de la mise en œuvre de l’IA. Cependant, les besoins en traitement de l'IA pour toutes ces utilisations varient considérablement, non seulement en termes de performances réelles, mais également en termes de types de réseaux neuronaux présentés par le cas d'utilisation.

-Comment le travail de votre entreprise répond-il à cette croissance ?

>> Avec le support LLM et SD susmentionné, les 4 d'Expederath l'architecture de génération est également facilement personnalisable. Lorsqu'Expedera s'engage dans une nouvelle conception avec un client, nous cherchons à comprendre toutes les conditions de l'application (objectifs de performances, prise en charge réseau requise, limitations de zone et de puissance, besoins futurs, etc.) afin de pouvoir personnaliser au mieux notre IP – essentiellement. , donnez au client exactement ce qu'il veut sans avoir à faire de sacrifices pour des choses qu'il ne veut pas. Si le client souhaite un moteur centralisé et hautes performances prenant en charge un certain nombre d'utilisations différentes et prenant en charge une variété de réseaux, nous pouvons le prendre en charge. Si le client souhaite déployer des moteurs décentralisés gérant uniquement des tâches et des réseaux spécifiques, nous pouvons également le prendre en charge – ou n'importe où entre les deux. Et tout cela à partir de la même architecture IP, sans pénalité de délai de mise sur le marché.

-À quelles conférences avez-vous assisté en 2023 et quel a été le trafic ?

>>Expedera participe à un groupe ciblé de conférences axées sur l'IA de pointe, y compris, mais sans s'y limiter, l'Embedded Vision Summit et l'AI Hardware & AI Summit, ainsi que des événements plus importants comme le CES. Le trafic lors de ces événements semblait comparable à celui de 2022, c'est-à-dire respectable. L’IA est évidemment un sujet très brûlant dans le monde de la technologie aujourd’hui, et chaque entreprise cherche des moyens d’intégrer l’IA dans ses produits, ses flux de travail et son processus de conception. En conséquence, nous avons vu une variété toujours croissante de participants à ces événements, qui ont tous des besoins et des attentes différents.

-Allez-vous assister à des conférences en 2024 ? Pareil ou plus ?

>>2024 verra probablement une légère expansion de nos projets de conférences, en particulier celles axées sur la technologie. En tant que membre de l’écosystème des semi-conducteurs, Expedera ne peut pas se permettre d’exister en vase clos. Nous avons parlé lors d'événements passés de nos piles matérielles et logicielles, ainsi que de nos implémentations telles que notre NPU à détection permanente et centré sur la sécurité pour les smartphones. Cette année, nous passerons beaucoup de temps à détailler les implémentations avancées des LLM, y compris lors des prochaines conférences plus tard ce printemps. Nous avons hâte de vous y retrouver nombreux !

Lisez aussi:

Expedera propose une diffusion stable comme référence pour le matériel Edge pour l'IA

WEBINAIRE : Un moteur de traitement neuronal idéal pour les déploiements à détection permanente

Inférence IA optimisée pour les applications sensibles aux coûts

Partagez cet article via:

spot_img

Dernières informations

spot_img