Logo Zephyrnet

DARPA phát động cuộc thi xây dựng những người bảo vệ phần mềm AI

Ngày:

Mũ đen Trong một thông báo bất ngờ tại bài phát biểu khai mạc Black Hat hôm nay, DARPA đã tiết lộ cái mà họ gọi là Thử thách mạng AI (AIxCC). Đó là cuộc thi kéo dài hai năm để xây dựng các hệ thống máy học bảo vệ có thể bảo vệ phần mềm và do đó là cơ sở hạ tầng quan trọng.

Cuộc thi bắt đầu vào thứ Tư, sẽ giúp các đội thi đấu với nhau để xây dựng các mô hình có thể xác định rủi ro trong mã, chặn các cuộc tấn công vào các lỗ hổng đó và giải quyết các lỗ hổng này. Người ta hy vọng rằng những mô hình này, một khi có khả năng bảo vệ các ứng dụng nói chung, do đó sẽ có thể bảo vệ cơ sở hạ tầng CNTT ở cấp độ phần mềm.

Anthropic, OpenAI, Google và Microsoft đã cam kết cung cấp lời khuyên và phần mềm cho những người tham gia sử dụng và Tổ chức bảo mật nguồn mở (mởSSF) cũng có mặt trong đội.

Thêm chi tiết cơ bản, quy tắc và thời hạn có thể được tìm thấy ở đây.

“Sự thúc đẩy cho điều này đến từ bên trong DARPA và khi chúng tôi tiếp cận những người như Anthropic và những người khác về vấn đề này, họ nói rằng họ đang nghĩ chính xác điều tương tự,” quản lý chương trình AIxCC Perri Adams nói. Đăng ký ở Las Vegas sớm hôm nay. Cô ấy nói thêm rằng tất cả điều này sẽ kết hợp với nhau “trong một môi trường mà chúng ta đang thấy công nghệ AI tuyệt vời.”

“Có rất nhiều người thấy rằng AI có tiềm năng to lớn để bảo mật mã và đó thực sự là một cơ hội tuyệt vời,” cô nói thêm. “Những gì chúng tôi tập trung vào là cố gắng bảo mật càng nhiều phần mềm càng tốt. Vì vậy, chúng tôi đang cố gắng mô hình hóa các thách thức đối với phần mềm có mục đích chung vì đó là những gì chúng tôi tìm thấy trong các hệ thống cơ sở hạ tầng quan trọng.”

darpa

Perri Adams, người quản lý chương trình AIxCC của DARPA, nói với những người tham dự Mũ Đen rằng có hàng triệu USD trên bàn

DARPA, trung tâm nghiên cứu đầu não của quân đội Hoa Kỳ, đang mời những người quan tâm tham gia đăng ký, cho Đường đua mở tự tài trợ hoặc Đường đua được tài trợ, sau này sẽ chấp nhận tối đa bảy doanh nghiệp nhỏ được chọn sẽ là được trao tới 1 triệu đô la mỗi người để cạnh tranh. Đăng ký cho phân vùng được tài trợ phải được thực hiện trước ngày 19 tháng 15, trong khi các thí sinh theo dõi mở phải đăng ký trước ngày XNUMX tháng XNUMX.

Vào mùa xuân năm 2024, các đội sẽ thi đấu trong một loạt thử nghiệm để xác định tư cách tham dự vòng bán kết, trong đó 20 đội hàng đầu sẽ thi đấu tại hội nghị DEF CON năm sau. Năm đội hàng đầu trong cuộc thi đó sẽ nhận được 2 triệu đô la mỗi người tiền thưởng.

Năm sau, tại DEF CON vào năm 2025, sẽ chứng kiến ​​năm người cuối cùng cạnh tranh để giành giải thưởng cao nhất trị giá 4 triệu đô la, với 3 triệu đô la cho vị trí thứ hai và 1.5 triệu đô la cho vị trí thứ ba. Các đội sẽ cần ít nhất một thường trú nhân hoặc công dân Hoa Kỳ trong đội để đủ điều kiện tham gia.

Đó là tổng cộng 18.5 triệu đô la và 7 triệu đô la cho những người tham gia kinh doanh nhỏ.

“Khi mọi người nghe thấy bảo mật và AI, tất cả các khớp thần kinh bắt đầu hoạt động, nhưng điều này không tập trung vào 'mô hình có an toàn không', mà là 'hãy giả sử rằng chúng ta có công cụ tuyệt vời này gọi là AI, bây giờ làm cách nào để chúng ta áp dụng nó trên một số lượng lớn phần mềm',” Omkhar Arasaratnam, tổng giám đốc của OpenSSF, nói với chúng tôi.

“Nếu bạn là kỹ sư phần mềm và bạn đang sử dụng zlib trên điện thoại hoặc trong bản phân phối Linux trên máy tính để bàn của mình, thì đó vẫn là zlib và chúng tôi phải đảm bảo áp dụng các thuộc tính bảo mật tương tự.”

Cách tiếp cận đó được nhúng trong AIxCC: bảo vệ mã ở bất cứ đâu, hoặc có vẻ như vậy đối với chúng tôi.

Rất nhiều hộp đen

AI là một chủ đề đang chạy ngày hôm nay. Khác Mũ đen diễn giả chính, Maria Markstedter, người sáng lập chuyên gia mã Arm Azeria Labs, cảnh báo tương lai, xét về khía cạnh đảm bảo an toàn cho các công nghệ máy học, có vẻ không chắc chắn do hai yếu tố: mong muốn phát triển nhanh và phá vỡ mọi thứ của ngành, đồng thời thiếu các chi tiết kỹ thuật nội bộ để các chuyên gia bảo mật làm việc cùng.

Điều đó có nghĩa là, một số tổ chức đang đưa các mô hình vào các tình huống trong thế giới thực theo cách có thể khiến mọi người gặp rủi ro và cách các mô hình được đào tạo và triển khai được giữ bí mật hoặc đơn giản là khó theo dõi. Tất cả những điều đó không phải là một tình huống tuyệt vời cho các nhà nghiên cứu infosec, người dùng cuối và quản trị viên.

Markstedter cho biết: “Cuộc chạy đua vũ trang AI của các công ty đã bắt đầu. “Dĩ nhiên, đi đầu trong việc này là Microsoft.”

Cô ấy chỉ ra rằng vào tháng XNUMX, Giám đốc điều hành Microsoft Satya Nadella đã khoe rằng công ty của ông ấy sẽ phát triển nhanh chóng trong lĩnh vực này và cô ấy nói thêm rằng giám đốc điều hành của Redmond, Sam Schillace thậm chí còn trích dẫn như đã nói rằng đó sẽ là một “lỗi cực kỳ nghiêm trọng trong thời điểm này khi lo lắng về những thứ có thể sửa chữa sau này.” Bất cứ ai đã áp dụng các bản vá Windows sẽ biết rất rõ điều này.

Hãy hy vọng rằng ML không bắt đầu như điện thoại thông minh đã làm. Markstedter cho biết các mô hình ban đầu chạy mọi thứ với quyền truy cập root, chúng có nhiều lỗi nghiêm trọng, có rất ít cách khắc phục và không có hộp cát dữ liệu.

Thay đổi xảy ra vì những người làm công tác bảo mật có thể tháo rời các thiết bị cầm tay, về mặt vật lý và về mã, xem cách chúng hoạt động, tìm ra lỗi và chỉ cho các nhà sản xuất nơi họ cần cải thiện trò chơi của mình. Cô gợi ý rằng điều tương tự sẽ không thể xảy ra với các sản phẩm AI hộp đen.

Để làm cho các vấn đề trở nên tồi tệ hơn, với dữ liệu đào tạo được lấy từ web bán buôn, các ngăn xếp AI lớn ngày nay “giống như một hình nộm tin vào mọi thứ họ đọc được trên internet,” cô ấy nói. Ngoài ra, có nghiên cứu cho thấy rằng việc nhiễm độc bộ dữ liệu đào tạo có thể dẫn đến những tác động lớn đến độ chính xác và hoạt động của các hệ thống ML.

“Chúng tôi không biết tình hình đó có thể như thế nào ngay bây giờ,” cô cảnh báo. “Vấn đề lớn nhất không phải là sự tồn tại của những thách thức này; vấn đề của chúng tôi là chúng tôi không có đủ người có kỹ năng để giải quyết chúng.” ®

tại chỗ_img

Tin tức mới nhất

tại chỗ_img