Logo Zephyrnet

Nvidia khai thác CPU Sapphire Rapids của Intel cho DGX H100 hỗ trợ Hopper

Ngày:

Nvidia đã chọn bộ xử lý Xeon Scalable thế hệ tiếp theo của Intel, được gọi là Sapphire Rapids, để đưa vào hệ thống DGX H100 AI sắp ra mắt của mình nhằm giới thiệu GPU H100 hàng đầu của mình.

Jensen Huang, đồng sáng lập kiêm Giám đốc điều hành của Nvidia, đã xác nhận lựa chọn CPU trong cuộc trò chuyện bên lề vào thứ Ba tại Hội nghị Công nghệ Toàn cầu BofA Securities 2022. Nvidia định vị dòng DGX là phương tiện hàng đầu cho GPU trung tâm dữ liệu của mình, tải sẵn phần mềm của họ cho các máy và tối ưu hóa chúng để cung cấp hiệu suất AI nhanh nhất dưới dạng các hệ thống riêng lẻ hoặc trong các cụm siêu máy tính lớn.

Xác nhận của Huang trả lời câu hỏi mà chúng tôi và những người quan sát khác đã đặt ra về CPU máy chủ x86 thế hệ tiếp theo mà hệ thống DGX mới sẽ sử dụng kể từ khi nó được công bố vào tháng XNUMX.

Gã khổng lồ GPU trước đây đã hứa rằng DGX H100 [PDF] sẽ ra mắt vào cuối năm nay và sẽ có tám GPU H100, dựa trên GPU mới của Nvidia Kiến trúc phễu. Bằng cách sử dụng nó thế hệ thứ tư Kết nối NVLink để kết nối các GPU, nhà thiết kế chip đã tuyên bố rằng một hệ thống duy nhất sẽ có khả năng cung cấp 32 petaflop hiệu suất AI bằng cách sử dụng định dạng FP8 của nó.

Huang xác nhận việc Nvidia lựa chọn Sapphire Rapids cho DGX H100 đồng thời bày tỏ sự ủng hộ tiếp tục của mình đối với CPU x86 khi công ty có kế hoạch giới thiệu CPU máy chủ dựa trên Arm đầu tiên của mình, Grace, vào năm tới. Ông cũng cho biết Nvidia sẽ sử dụng Sapphire Rapids cho các siêu máy tính mới.

“Chúng tôi mua rất nhiều x86. Chúng tôi có quan hệ đối tác tuyệt vời với Intel và AMD. Đối với thế hệ Hopper, tôi đã chọn Sapphire Rapids làm CPU cho Nvidia Hopper và Sapphire Rapids có hiệu năng xử lý đơn luồng rất xuất sắc. Và chúng tôi đang đánh giá nó cho những người có quy mô siêu lớn trên toàn thế giới. Chúng tôi đang đánh giá nó cho các trung tâm dữ liệu trên toàn thế giới. Chúng tôi đang đánh giá nó cho máy chủ của chúng tôi, DGX của chúng tôi. Chúng tôi đang đánh giá nó cho siêu máy tính của riêng mình,” ông nói tại sự kiện hôm thứ Ba.

Việc lựa chọn chip Sapphire Rapids sắp ra mắt của Intel, vốn đã bắt đầu được giao cho một số khách hàng, đánh dấu sự đảo ngược tình thế của Nvidia sau đó. đã chọn AMDCPU máy chủ Epyc thế hệ thứ hai của nó, có tên mã là Rome, cho nó Hệ thống DGX A100 đã được giới thiệu trong 2020.

Điều này xuất hiện sau khi ngành công nghiệp xuất bản ServeTheHome đã báo cáo vào giữa tháng XNUMX, Nvidia đã thiết kế bo mạch chủ cho cả Sapphire Rapids và AMD sắp ra mắt CPU Epyc, có tên mã Genoa, cho DGX H100 vì gã khổng lồ GPU vẫn chưa quyết định về việc nó sẽ sử dụng chip x86 nào.

Trong khi Intel sẽ coi đây là một chiến thắng vì gã khổng lồ bán dẫn làm việc để giành lại vị trí dẫn đầu về công nghệ sau nhiều năm sai lầm, đó là một chiến thắng tương đối nhỏ khi xem xét cuộc chiến lớn hơn về GPU và các bộ tăng tốc khác đang diễn ra giữa Nvidia, Intel, AMD và các công ty khác. Ví dụ, đó là lý do tại sao Intel đang đặt cược lớn vào sản phẩm sắp ra mắt của mình. GPU Ponte Vecchio và tại sao AMD lại thúc đẩy trở nên cạnh tranh hơn với Nvidia với GPU Instinct mới nhất của nó.

Một lý do chính khiến Nvidia quyết định xây dựng CPU tương thích với Arm của riêng mình là để họ có thể đặt CPU và GPU cùng nhau trong cùng một gói để tăng tốc đáng kể luồng dữ liệu giữa hai thành phần để cung cấp cho khối lượng công việc AI và các loại khác các ứng dụng yêu cầu.

Nvidia có kế hoạch giới thiệu phiên bản đầu tiên của thiết kế này, được gọi là Grace HopperSuperchip, vào năm tới cùng với Grace Superchip 144 lõi, chỉ dành cho CPU và chúng tôi nghĩ có khả năng Nvidia sẽ giới thiệu một loại hệ thống DGX mới sẽ sử dụng Grace. Intel cũng có kế hoạch giới thiệu thiết kế CPU-GPU cho các máy chủ có Falcon Shore XPU 2024.

Trong cuộc nói chuyện hôm thứ Ba, Huang hứa rằng “Grace sẽ là một CPU tuyệt vời” cho phép Nvidia tinh chỉnh mọi thứ từ linh kiện, hệ thống đến phần mềm. Theo Huang, mặc dù gã khổng lồ GPU đang thiết kế chip tương thích với Arm để mang lại lợi ích cho các hệ thống đề xuất và mô hình ngôn ngữ lớn được sử dụng bởi các công ty được gọi là siêu quy mô, nhưng nó cũng sẽ được sử dụng cho các ứng dụng khác.

“Grace có lợi thế là trong mọi miền ứng dụng mà chúng tôi tham gia, chúng tôi đều có đầy đủ, chúng tôi có tất cả hệ sinh thái được xếp hàng, cho dù đó là phân tích dữ liệu hay học máy hay trò chơi trên đám mây hay Omniverse, [hoặc ] mô phỏng sinh đôi kỹ thuật số. Trong tất cả các không gian mà chúng tôi sắp đưa Grace vào, chúng tôi sở hữu toàn bộ hệ thống, vì vậy chúng tôi có cơ hội tạo ra thị trường cho nó,” ông nói. ®

tại chỗ_img

Tin tức mới nhất

tại chỗ_img