Logo Zephyrnet

Meta chuyển trọng tâm sang chip GenAI để có đề xuất tốt hơn

Ngày:

Meta có giới thiệu phiên bản mới nhất của chip độc quyền dành riêng cho các tác vụ AI. Các chip Meta Training and Inference Accelerator (MTIA) v2, được phát triển nội bộ, cung cấp sức mạnh xử lý và băng thông bộ nhớ gấp đôi so với các chip v1 tiền thân của chúng.

Những con chip này sẽ được triển khai trên khắp các trung tâm dữ liệu của Meta để hỗ trợ các ứng dụng AI, đặc biệt là tăng cường hệ thống đề xuất học sâu nhằm tăng cường sự tương tác của người dùng trên nền tảng của nó.

Meta đã nhấn mạnh rằng những con chip mới này có khả năng quản lý cả thuật toán đề xuất và xếp hạng đơn giản và phức tạp, rất cần thiết cho quảng cáo trên các nền tảng như Facebook và Instagram. Meta khẳng định rằng bằng cách quản lý cả thành phần phần cứng và phần mềm, nó có thể vượt trội hơn các GPU thương mại tiêu chuẩn về mặt hiệu quả.

Bài đăng liên quan của Meta cho biết: “Chúng tôi đã thấy những kết quả tích cực của chương trình này vì nó cho phép chúng tôi dành và đầu tư nhiều sức mạnh tính toán hơn cho khối lượng công việc AI chuyên sâu hơn của mình”.

Meta đã ra mắt chip độc quyền đầu tiên của mình vào tháng 3 năm ngoái, được thiết kế riêng cho nhu cầu tính toán đặc biệt của công ty. Khi Meta tăng cường tập trung vào phát triển AI, nhu cầu về phần cứng chuyên dụng cũng tăng lên. Công ty gần đây đã trưng bày cơ sở hạ tầng AI mà họ sử dụng để đào tạo các mô hình AI tiên tiến của mình, chẳng hạn như Llama XNUMX, hiện chỉ dựa vào Nvidia các thành phần.

Meta chuyển trọng tâm sang chip GenAI để có đề xuất tốt hơn
Các chip MTIA được thiết lập để phát triển bổ sung, với kế hoạch của Meta là nâng cao phần cứng để hỗ trợ các tác vụ AI tổng quát (Tín dụng hình ảnh)

Theo nghiên cứu của Omdia, Meta là một trong những khách hàng lớn của Nvidia vào năm ngoái, mua một lượng lớn GPU H100 để đào tạo mô hình AI. Meta đã làm rõ rằng sáng kiến ​​​​silicon tùy chỉnh của họ được thiết kế để bổ sung, thay vì thay thế, phần cứng Nvidia đã được sử dụng trong các hệ thống hiện có của họ.

Meta cho biết: “Đáp ứng tham vọng của chúng tôi về silicon tùy chỉnh có nghĩa là đầu tư không chỉ vào silicon tính toán mà còn cả băng thông bộ nhớ, mạng và dung lượng cũng như các hệ thống phần cứng thế hệ tiếp theo khác”.

Các chip MTIA được thiết lập để phát triển bổ sung, với kế hoạch của Meta là nâng cao phần cứng để hỗ trợ các tác vụ AI tổng quát. Sự ra đời của MTIA v2 thể hiện bước đột phá gần đây nhất của Meta vào công nghệ chip tùy chỉnh, phản ánh xu hướng ngành rộng hơn, nơi các công ty công nghệ lớn đang tạo ra các giải pháp phần cứng của riêng họ.

“Chúng tôi hiện đang thực hiện một số chương trình nhằm mở rộng phạm vi MTIA, bao gồm hỗ trợ khối lượng công việc GenAI. Và chúng ta chỉ mới bắt đầu cuộc hành trình này.”

-Meta

Chẳng hạn, chỉ mới tuần trước, Google Cloud đã ra mắt CPU dựa trên Arm đầu tiên trong sự kiện Google Cloud Next 2024. Tương tự, Microsoft đã phát triển CPU nội bộ Maia và Cobalt, còn Amazon đang sử dụng dòng chip Graviton và Trainium do AWS thiết kế để tạo điều kiện thuận lợi cho các ứng dụng AI tổng hợp.


Tín dụng hình ảnh nổi bật: Laura Ockel / Bapt

tại chỗ_img

Tin tức mới nhất

tại chỗ_img