Logo Zephyrnet

Perspektywy na rok 2024 z Da Chuangiem z Expedery – Semiwiki

Data:

Da Chuang 2

Expedera zapewnia konfigurowalny silnik neuronowy półprzewodników IP, który radykalnie poprawia wydajność, moc i opóźnienia, jednocześnie zmniejszając koszty i złożoność aplikacji wnioskowania AI na krawędzi. Da jest współzałożycielem i dyrektorem generalnym Expedera. Wcześniej był współzałożycielem i dyrektorem operacyjnym Memoir Systems, start-upu zajmującego się zoptymalizowaną pamięcią IP, co doprowadziło do udanego przejęcia przez Cisco. W Cisco kierował układami ASIC Datacenter Switch dla produktów Nexus 3/9K, MDS, CSPG. Da wnosi ponad 25 lat doświadczenia w układach ASIC w Cisco, Nvidia i Abrizio. Posiada tytuł licencjata EECS na Uniwersytecie Kalifornijskim w Berkeley oraz tytuł magistra/doktora EE na Uniwersytecie Stanforda. Firma z siedzibą w Santa Clara w Kalifornii posiada centra rozwoju inżynieryjnego i biura obsługi klienta w Wielkiej Brytanii, Chinach, Japonii, Tajwanie i Singapurze.

Opowiedz nam trochę o sobie i swojej firmie.

Nazywam się Da Chuang i jestem współzałożycielem i dyrektorem generalnym Expedera. Założona w 2018 roku firma Expedera zbudowała swoją reputację dzięki dostarczaniu najlepszych, konfigurowalnych adresów IP NPU dla aplikacji wnioskowania brzegowego, od węzłów brzegowych i smartfonów po motoryzację. Nasz Origin NPU, teraz w 4thgeneracji, obsługuje do 128 TOPS w jednym rdzeniu, zapewniając jednocześnie wiodące w branży przetwarzanie i efektywność energetyczną dla najszerszego zakresu sieci neuronowych, w tym RNN, CNN, LSTM, DNN i LLM.

-Jaki był najbardziej ekscytujący punkt kulminacyjny w 2023 roku dla Twojej firmy?

>>2023 był rokiem ogromnego rozwoju Expedery. Do naszej firmy dodaliśmy dwie nowe lokalizacje fizyczne: Bath (Wielka Brytania) i Singapur. Obydwa biura skupiają się na przyszłych pracach badawczo-rozwojowych, opracowywaniu architektur sztucznej inteligencji nowej generacji oraz innych rzeczach, o których usłyszycie w nadchodzących miesiącach i latach. Chociaż jest to dla nas bardzo ekscytujące, być może najważniejszym punktem kulminacyjnym dla Expedery w 2023 r. był wzrost liczby klientów i wdrożeń. Rozpoczęliśmy rok wiadomością, że nasz adres IP został dostarczony do ponad 10 milionów urządzeń konsumenckich, co jest liczbą godną uwagi dla każdego start-upu w branży Semiconductor IP. Przez cały rok w dalszym ciągu poszerzaliśmy naszą bazę klientów, która obecnie obejmuje światowych producentów OEM smartfonów Tier 1, chipsetów do urządzeń konsumenckich i producentów chipów samochodowych. Nasze rozwiązanie NPU jest uznawane na całym świecie za najlepsze na rynku, a klienci zwracają się do nas, gdy chcą absolutnie najlepszego silnika AI dla swoich produktów.

-Jakie było największe wyzwanie, przed którym stanęła Twoja firma w 2023 roku?

>>Największym wyzwaniem w 2023 r., a także największą szansą, będzie pojawienie się dużych modeli językowych (LLM) i stabilnej dyfuzji (SD) w brzegowej przestrzeni sztucznej inteligencji. LLM/SD reprezentują zmianę paradygmatu w sztucznej inteligencji – wymagają bardziej wyspecjalizowanego przetwarzania i większej mocy obliczeniowej niż typowe sieci CNN/RNN, które większość klientów wdrażała w 2022 r. i wcześniej. Sama liczba aplikacji opartych na LLM/SD wdrażanych przez naszych klientów jest niesamowita. Jednak głównym wyzwaniem związanym z LLM i SD na krawędzi jest umożliwienie tym sieciom działania w ramach mocy i wydajności urządzenia brzegowego zasilanego bateryjnie.

-Jak praca Twojej firmy radzi sobie z tym największym wyzwaniem?

>> Nasi klienci chcą oferować produkty wyróżniające się sztuczną inteligencją; produkty, które przynoszą rzeczywistą wartość konsumentowi i zapewniają fantastyczne wrażenia użytkownika. Jednak znaczące spadki czasu pracy baterii nie są akceptowane jako część doświadczenia użytkownika. Ponieważ zintegrowaliśmy obsługę LLM i SD z naszą obecnie dostępną wersją 4th generacji, nasz projekt skupiał się na zapewnieniu najbardziej wydajnej pamięci, najwyższego wykorzystania i najniższych opóźnień adresów IP NPU, jakie mogliśmy zbudować. Przeanalizowaliśmy podstawowe działanie tych nowych typów sieci; przenoszenie danych, propagacja, zależności itp., aby zrozumieć, w jaki sposób rozwijać naszą architekturę sprzętu i oprogramowania, aby jak najlepiej odpowiadała przyszłym potrzebom. Jako przykład tego, jak ewoluowaliśmy, nasza 4th Architektura generacji obejmuje nowe mnożenie macierzy i bloki wektorów zoptymalizowane pod kątem LLM i SD, przy jednoczesnym zachowaniu naszej wiodącej na rynku wydajności przetwarzania w tradycyjnych sieciach typu RNN i CNN.

-Jak myślisz, jaki obszar będzie miał największy wzrost w roku 2024 i dlaczego?

>> Jednym z naszych największych obszarów wzrostu jest rok 2024, w którym będziemy wspierać coraz większą różnorodność wdrożeń sztucznej inteligencji w samochodach. Chociaż większość prawdopodobnie jest zaznajomiona z wykorzystaniem sztucznej inteligencji w autonomicznym stosie napędowym dla sieci opartych na wizualizacjach, pojawia się o wiele więcej możliwości i zastosowań. Z pewnością obserwujemy gwałtowny wzrost wykorzystania LLM w samochodach, podobnie jak na wielu innych rynkach. Jednak obserwujemy zwiększone wykorzystanie sztucznej inteligencji także w innych aspektach samochodu – uważności kierowcy, wykrywaniu pasażerów na tylnych siedzeniach, informacyjno-rozrywkowej, konserwacji predykcyjnej, personalizacji i wielu innych. Wszystko to ma na celu zapewnienie konsumentowi jak najlepszego doświadczenia użytkownika, co jest jednym z kluczowych powodów wdrożenia sztucznej inteligencji. Jednak potrzeby przetwarzania sztucznej inteligencji w przypadku wszystkich tych zastosowań znacznie się różnią, nie tylko pod względem rzeczywistych możliwości wydajności, ale także typów sieci neuronowych występujących w danym przypadku użycia.

-Jak praca Twojej firmy wpływa na ten rozwój?

>> Oprócz wspomnianej obsługi LLM i SD, platforma Expedera 4th Architektura generacji jest również łatwo dostosowywalna. Kiedy Expedera współpracuje z klientem nad nowym projektem, staramy się zrozumieć wszystkie warunki aplikacji (cele wydajności, wymagana obsługa sieci, ograniczenia obszaru i mocy, przyszłe potrzeby i inne), abyśmy mogli jak najlepiej dostosować naszą własność intelektualną – zasadniczo , daj klientowi dokładnie to, czego chce, bez konieczności poświęceń dla rzeczy, których nie chce. Jeśli klient potrzebuje scentralizowanego, wysokowydajnego silnika obsługującego wiele różnych zastosowań i obsługującego różne sieci, możemy to zapewnić. Jeśli klient chce wdrożyć zdecentralizowane silniki obsługujące tylko określone zadania i sieci, możemy również to zapewnić – lub gdziekolwiek pomiędzy. A wszystko to w oparciu o tę samą architekturę IP, bez kar za czas wprowadzenia produktu na rynek.

– W jakich konferencjach brałeś udział w 2023 roku i jaki był ruch?

>>Expedera uczestniczy w wybranych konferencjach poświęconych brzegowej sztucznej inteligencji, w tym między innymi Embedded Vision Summit i AI Hardware & AI Summit, a także większym wydarzeniom, takim jak CES. Ruch na tych wydarzeniach wydawał się porównywalny z rokiem 2022, czyli przyzwoity. Sztuczna inteligencja jest dziś oczywiście bardzo gorącym tematem w świecie technologii i każda firma szuka sposobów na zintegrowanie sztucznej inteligencji ze swoimi produktami, przepływami pracy i procesem projektowania. W związku z tym obserwujemy coraz większą różnorodność uczestników tych wydarzeń, a każdy z nich ma inne potrzeby i oczekiwania.

-Czy będziesz uczestniczyć w konferencjach w 2024 roku? To samo czy więcej?

>>W 2024 roku prawdopodobnie nastąpi lekkie poszerzenie naszych planów konferencyjnych, zwłaszcza tych skupionych na technologii. Będąc częścią ekosystemu półprzewodników, Expedera nie może sobie pozwolić na egzystencję w próżni. Na poprzednich wydarzeniach rozmawialiśmy o naszych stosach sprzętu i oprogramowania, a także wdrożeniach, takich jak nasza zorientowana na bezpieczeństwo, zawsze wykrywająca NPU dla smartfonów. W tym roku poświęcimy dużo czasu na szczegółowe opisywanie implementacji brzegowych LLM, w tym na nadchodzących konferencjach, które odbędą się później tej wiosny. Nie możemy się doczekać spotkania z wieloma z Was!

Przeczytaj także:

Expedera proponuje stabilną dyfuzję jako punkt odniesienia dla sprzętu brzegowego dla sztucznej inteligencji

WEBINAR: Idealny silnik przetwarzania neuronowego do zawsze wykrywających wdrożeń

Wnioskowanie AI zoptymalizowane pod kątem obszaru dla aplikacji wrażliwych na koszty

Udostępnij ten post przez:

spot_img

Najnowsza inteligencja

spot_img