Logo Zephyrnet

GPU là gì? Những con chip thúc đẩy sự bùng nổ AI và tại sao chúng có giá trị hàng nghìn tỷ USD

Ngày:

Khi thế giới đổ xô sử dụng làn sóng công nghệ AI mới nhất, một phần cứng công nghệ cao đã trở thành một mặt hàng hot một cách đáng ngạc nhiên: bộ xử lý đồ họa hay còn gọi là GPU.

GPU cao cấp nhất có thể được bán với giá hàng chục ngàn đô la, và nhà sản xuất hàng đầu Nvidia đã chứng kiến ​​mức định giá thị trường của mình vượt qua 2 nghìn tỷ USD khi nhu cầu về sản phẩm của nó tăng cao.

GPU không chỉ là sản phẩm AI cao cấp. GPU cũng có ít mạnh hơn trong điện thoại, máy tính xách tay và máy chơi game.

Đến bây giờ có lẽ bạn đang tự hỏi: GPU thực sự là gì? Và điều gì khiến chúng trở nên đặc biệt?

GPU là gì?

GPU ban đầu được thiết kế chủ yếu để tạo và hiển thị nhanh chóng các cảnh và vật thể 3D phức tạp, chẳng hạn như những cảnh liên quan đến trò chơi điện tử và máy tính hỗ trợ thiết kế phần mềm. GPU hiện đại cũng xử lý các tác vụ như giải nén luồng video.

“Bộ não” của hầu hết các máy tính là một con chip được gọi là bộ xử lý trung tâm (CPU). CPU có thể được sử dụng để tạo cảnh đồ họa và giải nén video, nhưng chúng thường chậm hơn nhiều và kém hiệu quả hơn trong các tác vụ này so với GPU. CPU phù hợp hơn cho các tác vụ tính toán chung, chẳng hạn như xử lý văn bản và duyệt trang web.

GPU khác với CPU như thế nào?

Một CPU hiện đại điển hình được tạo thành từ 8 đến 16”lõi,” mỗi cái có thể xử lý các tác vụ phức tạp một cách tuần tự.

Mặt khác, GPU có hàng nghìn lõi tương đối nhỏ, được thiết kế để tất cả đều hoạt động cùng lúc (“song song”) nhằm đạt được khả năng xử lý tổng thể nhanh chóng. Điều này làm cho chúng rất phù hợp cho những nhiệm vụ đòi hỏi nhiều thao tác đơn giản có thể được thực hiện cùng lúc, thay vì thực hiện từng thao tác một.

GPU truyền thống có hai loại chính.

Đầu tiên, có những con chip độc lập, thường có trong các thẻ bổ sung dành cho máy tính để bàn cỡ lớn. Thứ hai là GPU kết hợp với CPU trong cùng một gói chip, thường thấy trong máy tính xách tay và máy chơi game như PlayStation 5. Trong cả hai trường hợp, CPU đều kiểm soát hoạt động của GPU.

Tại sao GPU lại hữu ích cho AI?

Hóa ra GPU có thể được tái sử dụng để làm nhiều việc hơn là chỉ tạo ra các cảnh đồ họa.

Nhiều kỹ thuật học máy đằng sau trí tuệ nhân tạo, Chẳng hạn như mạng lưới thần kinh sâu, phụ thuộc nhiều vào các dạng phép nhân ma trận khác nhau.

Đây là một phép toán trong đó các tập hợp số rất lớn được nhân và tính tổng với nhau. Các hoạt động này rất phù hợp để xử lý song song và do đó GPU có thể thực hiện rất nhanh.

Điều gì tiếp theo dành cho GPU?

Khả năng xử lý số lượng của GPU đang tăng lên đều đặn do số lượng lõi và tốc độ hoạt động của chúng tăng lên. Những cải tiến này chủ yếu được thúc đẩy bởi những cải tiến trong sản xuất chip của các công ty như TSMC ở Đài Loan.

Kích thước của từng bóng bán dẫn—thành phần cơ bản của bất kỳ con chip máy tính nào—đang giảm dần, cho phép nhiều bóng bán dẫn hơn được đặt trong cùng một khoảng không gian vật lý.

Tuy nhiên, đó không phải là toàn bộ câu chuyện. Mặc dù GPU truyền thống rất hữu ích cho các tác vụ tính toán liên quan đến AI nhưng chúng không tối ưu.

Giống như GPU ban đầu được thiết kế để tăng tốc máy tính bằng cách cung cấp khả năng xử lý chuyên dụng cho đồ họa, cũng có những bộ tăng tốc được thiết kế để tăng tốc các tác vụ học máy. Những bộ tăng tốc này thường được gọi là GPU trung tâm dữ liệu.

Một số bộ tăng tốc phổ biến nhất do các công ty như AMD và Nvidia sản xuất, khởi đầu là GPU truyền thống. Theo thời gian, thiết kế của họ đã phát triển để xử lý tốt hơn các tác vụ học máy khác nhau, chẳng hạn như bằng cách hỗ trợ “phao não“định dạng số.

Các chương trình tăng tốc khác, chẳng hạn như của Google đơn vị xử lý tensor và Tenstorrent Lõi Tensix, được thiết kế từ đầu để tăng tốc mạng lưới thần kinh sâu.

GPU của trung tâm dữ liệu và các bộ tăng tốc AI khác thường có bộ nhớ lớn hơn đáng kể so với thẻ bổ trợ GPU truyền thống, điều này rất quan trọng để đào tạo các mô hình AI lớn. Mô hình AI càng lớn thì càng có khả năng và độ chính xác cao.

Để tăng tốc hơn nữa quá trình đào tạo và xử lý các mô hình AI lớn hơn, chẳng hạn như ChatGPT, nhiều GPU của trung tâm dữ liệu có thể được gộp lại với nhau để tạo thành siêu máy tính. Điều này đòi hỏi phần mềm phức tạp hơn để khai thác hợp lý sức mạnh xử lý số sẵn có. Một cách tiếp cận khác là tạo ra một máy gia tốc rất lớn, chẳng hạn như “bộ xử lý quy mô wafer” do Cerebras sản xuất.

Chip chuyên dụng có phải là tương lai không?

CPU cũng không đứng yên. Các CPU gần đây của AMD và Intel có các tập lệnh cấp thấp tích hợp sẵn giúp tăng tốc độ xử lý số theo yêu cầu của mạng lưới thần kinh sâu. Chức năng bổ sung này chủ yếu hỗ trợ thực hiện các nhiệm vụ “suy luận” — nghĩa là sử dụng các mô hình AI đã được phát triển ở nơi khác.

Để đào tạo các mô hình AI ngay từ đầu vẫn cần có các bộ tăng tốc lớn giống như GPU.

Có thể tạo ra các bộ tăng tốc chuyên dụng hơn bao giờ hết cho các thuật toán học máy cụ thể. Ví dụ, gần đây, một công ty có tên Groq đã sản xuất một loại “đơn vị xử lý ngôn ngữ” (LPU) được thiết kế đặc biệt để chạy các mô hình ngôn ngữ lớn dọc theo dòng ChatGPT.

Tuy nhiên, việc tạo ra các bộ xử lý chuyên dụng này cần có nguồn lực kỹ thuật đáng kể. Lịch sử cho thấy mức độ sử dụng và mức độ phổ biến của bất kỳ thuật toán học máy nhất định nào đều có xu hướng đạt đến đỉnh điểm và sau đó suy yếu dần—vì vậy phần cứng chuyên dụng đắt tiền có thể nhanh chóng trở nên lỗi thời.

Tuy nhiên, đối với người tiêu dùng bình thường, điều đó dường như không phải là vấn đề. GPU và các chip khác trong sản phẩm bạn sử dụng có thể sẽ nhanh hơn một cách âm thầm.

Bài viết này được tái bản từ Conversation theo giấy phép Creative Commons. Đọc ban đầu bài viết.

Ảnh: Nvidia

tại chỗ_img

Tin tức mới nhất

tại chỗ_img