Zephyrnet-logo

Outlook 2024 met Da Chuang van Expedera – Semiwiki

Datum:

Da Chuang 2

Expedera biedt aanpasbare neurale motor-halfgeleider-IP die de prestaties, het vermogen en de latentie dramatisch verbetert en tegelijkertijd de kosten en complexiteit in edge-AI-inferentietoepassingen verlaagt. Da is mede-oprichter en CEO van Expedera. Voorheen was hij medeoprichter en COO van Memoir Systems, een geoptimaliseerde geheugen-IP-startup, die leidde tot een succesvolle overname door Cisco. Bij Cisco gaf hij leiding aan de Datacenter Switch ASIC's voor Nexus 3/9K-, MDS- en CSPG-producten. Da brengt meer dan 25 jaar ASIC-ervaring mee bij Cisco, Nvidia en Abrizio. Hij heeft een BS EECS van UC Berkeley, een MS/PhD EE van Stanford. Het bedrijf heeft zijn hoofdkantoor in Santa Clara, Californië en heeft technische ontwikkelingscentra en klantenondersteuningskantoren in het Verenigd Koninkrijk, China, Japan, Taiwan en Singapore.

Vertel ons iets over uzelf en uw bedrijf.

Mijn naam is Da Chuang en ik ben mede-oprichter en CEO van Expedera. Expedera, opgericht in 2018, heeft onze reputatie opgebouwd als leverancier van de beste aanpasbare NPU IP voor edge-inferentietoepassingen, van edge-nodes en smartphones tot de automobielsector. Onze Origin NPU, nu in zijn 4thgeneratie-architectuur, ondersteunt tot 128 TOPS in één kern en biedt tegelijkertijd toonaangevende verwerkings- en energie-efficiëntie voor het breedste scala aan neurale netwerken, waaronder RNN, CNN, LSTM, DNN en LLM's.

-Wat was voor jouw bedrijf het spannendste hoogtepunt van 2023?

>>2023 was een jaar van enorme groei voor Expedera. We hebben twee nieuwe fysieke locaties aan ons bedrijf toegevoegd, Bath (VK) en Singapore. Beide kantoren zijn gericht op toekomstige R&D, het ontwikkelen van AI-architecturen van de volgende generatie, plus andere dingen waar je de komende maanden en jaren over zult horen. Hoewel dat erg spannend voor ons is, was misschien wel het belangrijkste hoogtepunt voor Expedera in 2023 onze klanten- en implementatiegroei. We begonnen het jaar met het nieuws dat onze IP was geleverd in meer dan 10 miljoen consumentenapparaten, wat een opmerkelijk aantal is voor elke Semiconductor IP-startup. Het hele jaar door zijn we ons klantenbestand blijven uitbreiden, dat nu wereldwijde Tier 1-smartphone-OEM's, chipsets voor consumentenapparatuur en chipfabrikanten voor de auto-industrie omvat. Onze NPU-oplossing wordt wereldwijd erkend als de beste op de markt, en klanten komen naar ons toe als ze de absoluut beste AI-engine voor hun producten willen.

-Wat was de grootste uitdaging waarmee uw bedrijf in 2023 te maken kreeg?

>>De grootste uitdaging in 2023, samen met de grootste kansen, is de opkomst van Large Language Models (LLM's) en Stable Diffusion (SD) in de edge-AI-ruimte. LLM’s/SD vertegenwoordigen een paradigmaverschuiving in AI – ze vereisen meer gespecialiseerde verwerking en meer verwerkingskracht dan de typische CNN/RNN-netwerken die de meeste klanten in 2022 en daarvoor implementeerden. Het enorme aantal op LLM/SD gebaseerde applicaties die onze klanten implementeren is ongelooflijk om te zien. De belangrijkste uitdaging van LLM's en SD on the edge is echter dat deze netwerken binnen het vermogen en de prestatiebereiken van een edge-apparaat op batterijen kunnen werken.

-Hoe pakt uw bedrijf deze grootste uitdaging aan?

>> Onze klanten willen producten aanbieden die AI-gedifferentieerd zijn; producten die echte waarde voor de consument bieden met een fantastische gebruikerservaring. Grote gevolgen voor de levensduur van de batterij worden echter niet geaccepteerd als onderdeel van de gebruikerservaring. Omdat we LLM- en SD-ondersteuning hebben geïntegreerd in onze nu beschikbare 4th generatie-architectuur lag onze ontwerpnadruk op het bieden van de meest geheugenefficiënte, hoogste benutting en laagste latentie NPU IP die we mogelijk konden bouwen. We hebben dieper ingegaan op de onderliggende werking van deze nieuwe netwerktypen; databewegingen, verspreiding, afhankelijkheden, enz... om de juiste manier te begrijpen om zowel onze hardware- als software-architecturen te evolueren om zo goed mogelijk aan te sluiten bij toekomstige behoeften. Als voorbeeld van hoe we geëvolueerd waren, onze 4th generatie-architectuur is voorzien van nieuwe matrixvermenigvuldiging en vectorblokken die zijn geoptimaliseerd voor LLM's en SD, terwijl onze toonaangevende verwerkingsefficiëntie in traditionele RNN- en CNN-achtige netwerken behouden blijft.

-Wat denk je dat het grootste groeigebied voor 2024 zal zijn, en waarom?

>> Een van onze grootste groeigebieden is dat in 2024 een steeds grotere verscheidenheid aan AI-implementaties in auto's zal worden ondersteund. Hoewel de meesten waarschijnlijk bekend zijn met het gebruik van AI in de autonome aandrijfstack voor visueel gebaseerde netwerken, zijn er veel meer mogelijkheden en toepassingen die zich voordoen. Zeker, we zien het LLM-gebruik in auto's omhoogschieten, net als in veel andere markten. We zien echter ook een toenemend gebruik van AI in andere aspecten van de auto: aandacht van de bestuurder, detectie van passagiers op de achterbank, infotainment, voorspellend onderhoud, personalisatie en vele andere. Deze zijn allemaal gericht op het bieden van de best mogelijke gebruikerservaring aan de consument, een van de belangrijkste redenen voor de implementatie van AI. De AI-verwerkingsbehoeften van al deze toepassingen variëren echter dramatisch, niet alleen wat betreft de daadwerkelijke prestatiemogelijkheden, maar ook wat betreft de soorten neurale netwerken die de use case biedt.

-Hoe gaat uw bedrijf om met deze groei?

>> Samen met de bovengenoemde LLM- en SD-ondersteuning biedt Expedera's 4th generatie-architectuur is ook gemakkelijk aanpasbaar. Wanneer Expedera met een klant een nieuw ontwerp aangaat, proberen we alle toepassingsomstandigheden te begrijpen (prestatiedoelstellingen, vereiste netwerkondersteuning, gebieds- en stroombeperkingen, toekomstige behoeften en andere), zodat we ons IP-adres het beste kunnen aanpassen – in wezen , geef de klant precies wat hij wil, zonder opofferingen te hoeven doen voor dingen die hij niet wil. Als de klant een gecentraliseerde, krachtige engine wenst die een aantal verschillende toepassingen en ondersteuning biedt voor een verscheidenheid aan netwerken, kunnen wij dat ondersteunen. Als de klant gedecentraliseerde motoren wil inzetten die alleen specifieke taken en netwerken afhandelen, kunnen wij dat ook ondersteunen – of iets daartussenin. En dit allemaal vanuit dezelfde IP-architectuur, gedaan zonder time-to-market-boetes.

-Welke conferenties heb je bijgewoond in 2023 en hoe was het verkeer?

>>Expedera exposeert op een gerichte groep conferenties gericht op edge AI, inclusief maar niet beperkt tot de Embedded Vision Summit en AI Hardware & AI Summit, evenals grotere evenementen zoals CES. Het verkeer op deze evenementen leek op één lijn met 2022, dat wil zeggen respectabel. AI is tegenwoordig duidelijk een zeer actueel onderwerp binnen de technische wereld, en elk bedrijf zoekt naar manieren om AI te integreren in hun producten, workflows en ontwerpprocessen. Dienovereenkomstig hebben we een steeds grotere verscheidenheid aan bezoekers op deze evenementen gezien, die allemaal verschillende behoeften en verwachtingen hebben.

-Ga je naar conferenties in 2024? Hetzelfde of meer?

>>In 2024 zal er waarschijnlijk sprake zijn van een lichte uitbreiding van onze conferentieplannen, vooral die gericht op technologie. Als onderdeel van het halfgeleider-ecosysteem kan Expedera het zich niet veroorloven in een vacuüm te bestaan. We hebben op eerdere evenementen gesproken over onze hardware- en softwarestacks, maar ook over implementaties zoals onze op beveiliging gerichte, altijd detecterende NPU voor smartphones. Dit jaar zullen we veel tijd besteden aan het detailleren van edge-implementaties van LLM's, ook op komende conferenties later dit voorjaar. Wij hopen velen van jullie daar te ontmoeten!

Lees ook:

Expedera stelt stabiele verspreiding voor als benchmark voor Edge-hardware voor AI

WEBINAR: een ideale neurale verwerkingsmotor voor altijd detecterende implementaties

Gebiedsgeoptimaliseerde AI-inferentie voor kostengevoelige toepassingen

Deel dit bericht via:

spot_img

Laatste intelligentie

spot_img