Logo Zephyrnet

Meta triển khai chip AI tùy chỉnh cùng với GPU AMD, Nvidia

Ngày:

Sau nhiều năm phát triển, Meta cuối cùng cũng có thể tung ra các công cụ tăng tốc AI nội địa của mình một cách có ý nghĩa trong năm nay.

Đế chế Facebook đã xác nhận mong muốn bổ sung việc triển khai GPU Nvidia H100 và AMD MI300X bằng dòng chip Meta Training Inference Accelerator (MTIA) trong tuần này. Cụ thể, Meta sẽ triển khai bộ xử lý được tối ưu hóa suy luận, được cho là có mật danh là Artemis, dựa trên các bộ phận thế hệ đầu tiên của gã khổng lồ Thung lũng Silicon trêu chọc năm ngoái.

Người phát ngôn của Meta cho biết: “Chúng tôi rất vui mừng về những tiến bộ mà chúng tôi đã đạt được trong nỗ lực silicon nội bộ của mình với MTIA và đang trên đà bắt đầu triển khai biến thể suy luận của mình trong sản xuất vào năm 2024”. Đăng ký hôm thứ Năm.

Người đại diện tiếp tục: “Chúng tôi thấy các bộ tăng tốc được phát triển nội bộ của mình sẽ bổ sung rất nhiều cho các GPU có sẵn trên thị trường trong việc mang lại sự kết hợp tối ưu giữa hiệu suất và hiệu quả trên các khối lượng công việc dành riêng cho Meta”. Chi tiết? Không. Người phát ngôn nói với chúng tôi: “Chúng tôi mong muốn được chia sẻ thêm thông tin cập nhật về các kế hoạch MTIA tương lai của chúng tôi vào cuối năm nay”.

Chúng tôi hiểu điều đó có nghĩa là chip tập trung vào suy luận thế hệ thứ hai đang được triển khai rộng rãi, theo sau phiên bản suy luận chỉ dành cho phòng thí nghiệm thế hệ đầu tiên và chúng tôi có thể tìm hiểu sau về các bộ phận chủ yếu dành cho đào tạo hoặc đào tạo và suy luận.

Meta đã trở thành một trong những khách hàng tốt nhất của Nvidia và AMD khi việc triển khai khối lượng công việc AI của họ ngày càng tăng, làm tăng nhu cầu và sử dụng silicon chuyên dụng để giúp phần mềm máy học của họ chạy nhanh nhất có thể. Do đó, quyết định phát triển bộ xử lý tùy chỉnh của riêng gã khổng lồ Instagram không có gì đáng ngạc nhiên.

Trên thực tế, về mặt bề ngoài, mega-corp này tương đối muộn so với nhóm silicon AI tùy chỉnh về mặt triển khai trong thế giới thực. Amazon và Google đã sử dụng các thành phần cây nhà lá vườn để tăng tốc hệ thống máy học nội bộ, chẳng hạn như mô hình đề xuất và mã ML của khách hàng trong một số năm. Trong khi đó, Microsoft đã tiết lộ các máy gia tốc nội địa của mình vào năm ngoái.

Nhưng ngoài thực tế là Meta đang tung ra chip suy luận MTIA trên quy mô lớn, mạng xã hội này vẫn chưa tiết lộ kiến ​​trúc chính xác của nó cũng như khối lượng công việc nào nó dành cho silicon nội bộ và khối lượng công việc nào nó sẽ giảm tải cho GPU của AMD và Nvidia.

Có khả năng Meta sẽ chạy các mô hình đã được thiết lập trên ASIC tùy chỉnh của mình để giải phóng tài nguyên GPU cho các ứng dụng năng động hơn hoặc đang phát triển hơn. Chúng tôi đã từng thấy Meta đi theo con đường này trước đây với các bộ tăng tốc tùy chỉnh được thiết kế để giảm tải dữ liệu và tính toán khối lượng công việc video chuyên sâu.

Về thiết kế cơ bản, những người theo dõi ngành tại SemiAnalysis cho chúng tôi biết rằng con chip mới dựa trên kiến ​​trúc của các bộ phận thế hệ đầu tiên của Meta.

Bước đá

Được công bố vào đầu năm 2023 sau ba năm phát triển, các bộ phận MTIA v1 của Meta mà bạn bè của chúng tôi tại Nền tảng tiếp theo nhìn mùa xuân năm ngoái, được thiết kế đặc biệt dành cho các mô hình đề xuất học sâu.

Chip thế hệ đầu tiên được xây dựng dựa trên cụm CPU RISC-V và được chế tạo bằng quy trình 7nm của TSMC. Bên trong, thành phần này sử dụng một ma trận 128 x 128 gồm các phần tử xử lý, mỗi phần tử được trang bị hai lõi CPU RV, một trong số đó được trang bị phần mở rộng toán học vectơ. Các lõi này được cung cấp từ 5 MB SRAM trên chip và bộ nhớ LPDDRXNUMX lên tới XNUMXGB.

Như Meta đã tuyên bố vào năm ngoái, con chip này chạy ở tốc độ 800 MHz và đạt tốc độ 102.4 nghìn tỷ hoạt động mỗi giây đối với hiệu suất INT8 hoặc 51.2 teraFLOPS với độ chính xác một nửa (FP16). Để so sánh, H100 của Nvidia có khả năng đạt gần 8 petaFLOPS hiệu suất FP25 thưa thớt. Mặc dù không mạnh bằng GPU của Nvidia hay AMD, nhưng con chip này có một lợi thế lớn: Tiêu thụ điện năng. Bản thân con chip này có công suất thiết kế nhiệt chỉ XNUMX watt.

Theo Bán phân tích, con chip mới nhất của Meta tự hào có các lõi được cải tiến và trao đổi LPDDR5 để lấy bộ nhớ băng thông cao được đóng gói bằng công nghệ chip-on-wafer-on-substrate (CoWoS) của TSMC.

Một điểm khác biệt đáng chú ý khác là chip thế hệ thứ hai của Meta sẽ thực sự được triển khai rộng rãi trên cơ sở hạ tầng trung tâm dữ liệu của nó. Theo gã khổng lồ Facebook, mặc dù bộ phận thế hệ đầu tiên được sử dụng để chạy các mô hình quảng cáo sản xuất nhưng nó chưa bao giờ rời khỏi phòng thí nghiệm.

Đuổi theo trí tuệ nhân tạo tổng hợp

Bỏ các phần tùy chỉnh sang một bên, công ty mẹ Facebook và Instagram đã bỏ đi tỷ đô la cho GPU trong những năm gần đây để tăng tốc mọi loại tác vụ không phù hợp với nền tảng CPU thông thường. Tuy nhiên, sự nổi lên của các mô hình ngôn ngữ lớn, chẳng hạn như GPT-4 và Llama 2 của Meta, đã thay đổi cục diện và thúc đẩy việc triển khai các cụm GPU lớn.

Ở quy mô mà Meta vận hành, những xu hướng này đòi hỏi phải có những thay đổi mạnh mẽ đối với cơ sở hạ tầng của nó, bao gồm cả Thiết kế lại của một số trung tâm dữ liệu để hỗ trợ các yêu cầu về năng lượng và làm mát to lớn liên quan đến việc triển khai AI quy mô lớn.

Và việc triển khai của Meta sẽ ngày càng lớn hơn trong vài tháng tới khi công ty chuyển trọng tâm từ metaverse sang phát triển của trí tuệ nhân tạo nói chung. Người ta cho rằng công việc được thực hiện trên AI sẽ giúp hình thành metaverse hoặc những thứ tương tự.

Theo Giám đốc điều hành Mark Zuckerberg, Meta có kế hoạch triển khai tới 350,000 Nvidia H100 chỉ trong năm nay.

Biz cũng đã công bố kế hoạch triển khai các sản phẩm mới của AMD phát động GPU MI300X trong trung tâm dữ liệu của nó. Zuckerberg tuyên bố công ty của anh sẽ kết thúc năm với sức mạnh tính toán tương đương 600,000 chiếc H100. Vì vậy, rõ ràng chip MTIA của Meta sẽ không sớm thay thế GPU. ®

tại chỗ_img

Tin tức mới nhất

tại chỗ_img