Logo Zephyrnet

Triển vọng năm 2024 với Da Chuang của Expedera – Semiwiki

Ngày:

Dạ Chuông 2

Expedera cung cấp IP bán dẫn công cụ thần kinh có thể tùy chỉnh giúp cải thiện đáng kể hiệu suất, công suất và độ trễ đồng thời giảm chi phí và độ phức tạp trong các ứng dụng suy luận AI biên. Da là người đồng sáng lập và CEO của Expedera. Trước đây, ông là đồng sáng lập và COO của Memoir Systems, một công ty khởi nghiệp về IP bộ nhớ được tối ưu hóa, đã giúp Cisco mua lại thành công. Tại Cisco, ông lãnh đạo ASIC chuyển mạch trung tâm dữ liệu cho các sản phẩm Nexus 3/9K, MDS, CSPG. Da có hơn 25 năm kinh nghiệm về ASIC tại Cisco, Nvidia và Abrizio. Ông có bằng Cử nhân EECS của UC Berkeley, Thạc sĩ/Tiến sĩ EE của Stanford. Có trụ sở chính tại Santa Clara, California, công ty có các trung tâm phát triển kỹ thuật và văn phòng hỗ trợ khách hàng tại Vương quốc Anh, Trung Quốc, Nhật Bản, Đài Loan và Singapore.

Hãy cho chúng tôi biết một chút về bản thân và công ty của bạn.

Tên tôi là Da Chuang, tôi là người đồng sáng lập và CEO của Expedera. Được thành lập vào năm 2018, Expedera đã tạo dựng được danh tiếng trong việc cung cấp NPU IP có thể tùy chỉnh hàng đầu cho các ứng dụng suy luận biên từ nút biên và điện thoại thông minh cho đến ô tô. NPU gốc của chúng tôi, hiện đã có phiên bản thứ 4thkiến trúc thế hệ, hỗ trợ tới 128 TOPS trong một lõi đơn đồng thời mang lại hiệu suất xử lý và năng lượng hàng đầu trong ngành cho phạm vi mạng thần kinh rộng nhất bao gồm RNN, CNN, LSTM, DNN và LLM.

-Đỉnh cao thú vị nhất trong năm 2023 đối với công ty của bạn là gì?

>>2023 là một năm tăng trưởng vượt bậc của Expedera. Chúng tôi đã thêm hai địa điểm thực tế mới vào công ty của mình, Bath (Anh) và Singapore. Cả hai văn phòng này đều tập trung vào R&D trong tương lai, phát triển kiến ​​trúc AI thế hệ tiếp theo, cùng với những nội dung khác mà bạn sẽ được nghe trong những tháng và năm tới. Mặc dù điều đó rất thú vị đối với chúng tôi, nhưng có lẽ điểm cao quan trọng nhất đối với Expedera vào năm 2023 là sự tăng trưởng về khách hàng và hoạt động triển khai của chúng tôi. Chúng tôi bắt đầu năm mới với tin tức rằng IP của chúng tôi đã được cung cấp trên hơn 10 triệu thiết bị tiêu dùng, đây là một con số đáng chú ý đối với bất kỳ công ty khởi nghiệp IP bán dẫn nào. Trong suốt cả năm, chúng tôi tiếp tục mở rộng cơ sở khách hàng của mình, hiện bao gồm các OEM điện thoại thông minh Cấp 1 trên toàn thế giới, chipset thiết bị tiêu dùng và nhà sản xuất chip ô tô. Giải pháp NPU của chúng tôi được công nhận trên toàn cầu là giải pháp tốt nhất trên thị trường và khách hàng đến với chúng tôi khi họ muốn có công cụ AI tốt nhất cho sản phẩm của họ.

-Thách thức lớn nhất mà công ty bạn gặp phải vào năm 2023 là gì?

>>Thách thức lớn nhất vào năm 2023, cùng với cơ hội lớn nhất, là sự xuất hiện của Mô hình ngôn ngữ lớn (LLM) và Khuếch tán ổn định (SD) trong không gian AI biên. LLM/SD thể hiện sự thay đổi mô hình trong AI – chúng yêu cầu khả năng xử lý chuyên biệt hơn và công suất xử lý cao hơn so với mạng CNN / RNN điển hình mà hầu hết khách hàng đã triển khai vào năm 2022 trở về trước. Số lượng ứng dụng dựa trên LLM/SD mà khách hàng của chúng tôi đang triển khai thật đáng kinh ngạc. Tuy nhiên, thách thức chính của LLM và SD ở biên là cho phép các mạng đó chạy trong phạm vi năng lượng và hiệu suất của thiết bị biên chạy bằng pin.

-Công việc của công ty bạn giải quyết thách thức lớn nhất này như thế nào?

>> Khách hàng của chúng tôi muốn giới thiệu những sản phẩm có sự khác biệt về AI; sản phẩm mang lại giá trị thực sự cho người tiêu dùng với trải nghiệm người dùng tuyệt vời. Tuy nhiên, những tác động đáng kể đến thời lượng pin không được chấp nhận như một phần trải nghiệm của người dùng. Khi chúng tôi tích hợp hỗ trợ LLM và SD vào 4 phiên bản hiện có sẵn của mìnhth kiến trúc thế hệ mới, điểm nhấn trong thiết kế của chúng tôi là tập trung vào việc cung cấp IP NPU hiệu quả nhất, mức sử dụng cao nhất và độ trễ thấp nhất mà chúng tôi có thể xây dựng. Chúng tôi đã tìm hiểu kỹ hoạt động cơ bản của các loại mạng mới này; chuyển động, truyền bá, phụ thuộc dữ liệu, v.v… để hiểu cách phù hợp để phát triển cả kiến ​​trúc phần cứng và phần mềm của chúng tôi để phù hợp nhất với nhu cầu trong tương lai. Như một ví dụ về cách chúng tôi đã phát triển, 4th Kiến trúc thế hệ có tính năng nhân ma trận và khối vectơ mới được tối ưu hóa cho LLM và SD, đồng thời duy trì hiệu quả xử lý dẫn đầu thị trường của chúng tôi trong các mạng kiểu RNN và CNN truyền thống.

-Bạn nghĩ lĩnh vực tăng trưởng lớn nhất cho năm 2024 sẽ là gì và tại sao?

>> Một trong những lĩnh vực tăng trưởng lớn nhất của chúng tôi là năm 2024 sẽ hỗ trợ ngày càng nhiều hoạt động triển khai AI trên ô tô. Mặc dù hầu hết mọi người đều có thể quen thuộc với việc sử dụng AI trong hệ thống lái xe tự động cho các mạng dựa trên hình ảnh, nhưng vẫn còn rất nhiều cơ hội và ứng dụng đang nổi lên. Chắc chắn, chúng ta đang thấy việc sử dụng LLM trong ô tô tăng vọt, giống như nhiều thị trường khác. Tuy nhiên, chúng tôi cũng nhận thấy việc sử dụng AI ngày càng tăng trong các khía cạnh khác của ô tô – sự chú ý của người lái, phát hiện hành khách ngồi phía sau, thông tin giải trí, bảo trì dự đoán, cá nhân hóa và nhiều khía cạnh khác. Tất cả những điều này đều nhằm mục đích cung cấp cho người tiêu dùng trải nghiệm người dùng tốt nhất có thể, một trong những lý do chính để triển khai AI. Tuy nhiên, nhu cầu xử lý AI của tất cả các mục đích sử dụng này rất khác nhau, không chỉ về khả năng hoạt động thực tế mà còn về các loại mạng thần kinh mà trường hợp sử dụng trình bày.

-Công việc của công ty bạn giải quyết sự tăng trưởng này như thế nào?

>> Cùng với sự hỗ trợ LLM và SD đã nói ở trên, Expedera's 4th kiến trúc thế hệ cũng có thể tùy chỉnh dễ dàng. Khi Expedera tham gia vào một thiết kế mới với khách hàng, chúng tôi tìm hiểu tất cả các điều kiện ứng dụng (mục tiêu hiệu suất, yêu cầu hỗ trợ mạng, giới hạn về diện tích và nguồn điện, nhu cầu trong tương lai và các điều kiện khác) để chúng tôi có thể tùy chỉnh IP của mình tốt nhất – về cơ bản , cung cấp cho khách hàng chính xác những gì họ muốn mà không cần phải hy sinh những thứ họ không có. Nếu khách hàng mong muốn một công cụ tập trung, hiệu suất cao đáp ứng nhiều mục đích sử dụng khác nhau và hỗ trợ cho nhiều mạng khác nhau, chúng tôi có thể hỗ trợ điều đó. Nếu khách hàng muốn triển khai các công cụ phi tập trung chỉ xử lý các nhiệm vụ và mạng cụ thể, chúng tôi cũng có thể hỗ trợ điều đó – hoặc bất cứ nơi nào ở giữa. Và tất cả đều đến từ cùng một kiến ​​trúc IP, được thực hiện mà không bị phạt về thời gian đưa sản phẩm ra thị trường.

-Bạn đã tham dự những hội nghị nào vào năm 2023 và giao thông thế nào?

>>Expedera trưng bày tại một nhóm hội nghị mục tiêu tập trung vào AI biên, bao gồm nhưng không giới hạn ở Hội nghị thượng đỉnh về Tầm nhìn nhúng và Hội nghị thượng đỉnh về phần cứng & AI của AI, cũng như các sự kiện lớn hơn như CES. Lưu lượng truy cập tại những sự kiện này dường như ngang bằng với năm 2022, có thể nói là đáng nể. AI rõ ràng là một chủ đề rất nóng trong thế giới công nghệ ngày nay và mọi công ty đang tìm cách tích hợp AI vào sản phẩm, quy trình làm việc và quy trình thiết kế của họ. Theo đó, chúng tôi nhận thấy số lượng người tham dự các sự kiện này ngày càng tăng, tất cả đều có những nhu cầu và mong đợi khác nhau.

-Bạn sẽ tham dự hội nghị vào năm 2024 chứ? Giống hay nhiều hơn?

>>Năm 2024 có thể sẽ chứng kiến ​​sự mở rộng nhẹ trong kế hoạch tổ chức hội nghị của chúng tôi, đặc biệt là những kế hoạch tập trung vào công nghệ. Là một phần của hệ sinh thái bán dẫn, Expedera không thể tồn tại trong chân không. Chúng tôi đã phát biểu tại các sự kiện trước đây về hệ thống phần cứng và phần mềm cũng như các cách triển khai như NPU luôn cảm biến tập trung vào bảo mật dành cho điện thoại thông minh. Năm nay, chúng tôi sẽ dành nhiều thời gian để trình bày chi tiết việc triển khai LLM tiên tiến, bao gồm cả tại các hội nghị sắp tới vào cuối mùa xuân này. Chúng tôi mong được gặp nhiều bạn ở đó!

Cũng đọc:

Expedera đề xuất khả năng khuếch tán ổn định làm điểm chuẩn cho phần cứng biên dành cho AI

WEBINAR: Một công cụ xử lý thần kinh lý tưởng cho việc triển khai luôn cảm nhận

Suy luận AI được tối ưu hóa theo khu vực cho các ứng dụng nhạy cảm với chi phí

Chia sẻ bài đăng này qua:

tại chỗ_img

Tin tức mới nhất

tại chỗ_img