Logo Zephyrnet

Việc sử dụng bảo mật để điều chỉnh chip AI có thể trông như thế nào

Ngày:

Các nhà nghiên cứu từ OpenAI, Đại học Cambridge, Đại học Harvard và Đại học Toronto đã đưa ra những thử nghiệm “khám phá” ý tưởng về cách điều chỉnh chip và phần cứng AIvà cách các chính sách bảo mật có thể ngăn chặn việc lạm dụng AI tiên tiến.

Các khuyến nghị này cung cấp các cách để đo lường và kiểm tra quá trình phát triển và sử dụng các hệ thống AI tiên tiến cũng như các con chip cung cấp năng lượng cho chúng. Các khuyến nghị thực thi chính sách bao gồm việc hạn chế hiệu suất của hệ thống và triển khai các tính năng bảo mật có thể vô hiệu hóa các chip giả mạo từ xa.

Các nhà nghiên cứu viết: “Việc đào tạo các hệ thống AI có khả năng cao hiện đòi hỏi phải tích lũy và sắp xếp hàng nghìn chip AI”. “[I] nếu các hệ thống này tiềm ẩn nguy hiểm, thì việc hạn chế sức mạnh tính toán tích lũy này có thể giúp hạn chế việc sản xuất các hệ thống AI nguy hiểm tiềm tàng.”

Nathan Brookwood, nhà phân tích chính của Insight 64, cho biết các chính phủ chủ yếu tập trung vào phần mềm cho chính sách AI và bài báo này là tài liệu đồng hành đề cập đến khía cạnh phần cứng của cuộc tranh luận.

Tuy nhiên, ông cảnh báo ngành công nghiệp sẽ không hoan nghênh bất kỳ tính năng bảo mật nào ảnh hưởng đến hiệu suất của AI. Làm cho AI trở nên an toàn thông qua phần cứng “là một khát vọng cao cả, nhưng tôi chưa thấy ai trong số đó làm được điều đó. Thần đèn đã tắt đèn và chúc may mắn lấy lại được đèn,” anh nói.

Điều tiết kết nối giữa các cụm

Một trong những đề xuất mà các nhà nghiên cứu đề xuất là giới hạn khả năng xử lý điện toán có sẵn cho các mô hình AI. Ý tưởng là áp dụng các biện pháp bảo mật có thể xác định việc lạm dụng hệ thống AI cũng như cắt giảm và hạn chế sử dụng chip.

Cụ thể, họ đề xuất một cách tiếp cận có mục tiêu nhằm hạn chế băng thông giữa bộ nhớ và cụm chip. Các nhà nghiên cứu viết rằng giải pháp thay thế dễ dàng hơn – cắt quyền truy cập vào chip – không phải là lý tưởng vì nó sẽ ảnh hưởng đến hiệu suất tổng thể của AI.

Bài báo không đề xuất cách triển khai các biện pháp bảo vệ an ninh như vậy hoặc cách phát hiện việc lạm dụng hệ thống AI.

Các nhà nghiên cứu viết: “Xác định giới hạn băng thông tối ưu cho liên lạc bên ngoài là một lĩnh vực cần được nghiên cứu thêm.

Các hệ thống AI quy mô lớn đòi hỏi băng thông mạng cực lớn và các hệ thống AI như Eagle của Microsoft và Eos của Nvidia nằm trong số những hệ thống đó. top 10 siêu máy tính nhanh nhất thế giới. Hiện có các cách để hạn chế hiệu suất mạng đối với các thiết bị hỗ trợ ngôn ngữ lập trình P4, ngôn ngữ này có thể phân tích lưu lượng mạng và cấu hình lại bộ định tuyến và chuyển mạch.

Nhưng chúc may mắn khi yêu cầu các nhà sản xuất chip triển khai các cơ chế bảo mật AI có thể làm chậm chip và mạng, Brookwood nói.

“Arm, Intel và AMD đều đang bận rộn xây dựng những con chip nhanh nhất, hiệu quả nhất mà họ có thể tạo ra để cạnh tranh. Tôi không biết làm thế nào bạn có thể chậm lại,” anh nói.

Khả năng từ xa mang theo một số rủi ro

Các nhà nghiên cứu cũng đề xuất vô hiệu hóa chip từ xa, đây là tính năng mà Intel đã tích hợp vào chip máy chủ mới nhất của mình. Tính năng Theo yêu cầu là một dịch vụ đăng ký cho phép khách hàng của Intel bật và tắt các tính năng trên chip như bật và tắt tiện ích mở rộng AI như ghế sưởi trong xe Tesla.

Các nhà nghiên cứu cũng đề xuất một kế hoạch chứng thực trong đó chip chỉ cho phép các bên được ủy quyền truy cập vào hệ thống AI thông qua chứng chỉ kỹ thuật số được ký bằng mật mã. Phần sụn có thể cung cấp các hướng dẫn về người dùng và ứng dụng được ủy quyền, những hướng dẫn này có thể được thay đổi bằng các bản cập nhật.

Mặc dù các nhà nghiên cứu không đưa ra khuyến nghị kỹ thuật về cách thực hiện việc này, nhưng ý tưởng này tương tự như cách điện toán bí mật bảo mật các ứng dụng trên chip bằng cách chứng thực người dùng được ủy quyền. IntelAMD có tính toán bí mật trên chip của họ, nhưng vẫn còn những ngày đầu cho công nghệ mới nổi.

Cũng có những rủi ro khi thực thi chính sách từ xa. Các nhà nghiên cứu viết: “Các cơ chế thực thi từ xa có những nhược điểm đáng kể và chỉ có thể được đảm bảo nếu tác hại dự kiến ​​​​từ AI là cực kỳ cao”.

Brookwood đồng ý.

“Ngay cả khi bạn có thể, sẽ có những kẻ xấu theo đuổi nó. Ông nói: Việc đặt ra những ràng buộc giả tạo đối với những người tốt sẽ không hiệu quả.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img