Logo Zephyrnet

Các lỗi nghiêm trọng khiến nền tảng AI ôm mặt rơi vào tình trạng 'dưa chua'

Ngày:

Hai lỗ hổng bảo mật nghiêm trọng trong nền tảng AI ôm khuôn mặt đã mở ra cơ hội cho những kẻ tấn công tìm cách truy cập và thay đổi dữ liệu cũng như mô hình của khách hàng.

Một trong những điểm yếu về bảo mật đã giúp kẻ tấn công truy cập vào các mô hình máy học (ML) của các khách hàng khác trên nền tảng Hugging Face và điểm yếu thứ hai cho phép chúng ghi đè tất cả hình ảnh trong sổ đăng ký vùng chứa chung. Cả hai lỗ hổng, được phát hiện bởi các nhà nghiên cứu tại Wiz, đều liên quan đến khả năng kẻ tấn công chiếm lấy các phần cơ sở hạ tầng suy luận của Ôm Mặt.

Các nhà nghiên cứu của Wiz đã tìm thấy điểm yếu trong ba thành phần cụ thể: API suy luận của Hugging Face, cho phép người dùng duyệt và tương tác với các mô hình có sẵn trên nền tảng; Điểm cuối suy luận ôm khuôn mặt - hoặc cơ sở hạ tầng chuyên dụng để triển khai các mô hình AI vào sản xuất; và Ôm không gian khuôn mặt, một dịch vụ lưu trữ để giới thiệu các ứng dụng AI/ML hoặc để cộng tác phát triển mô hình.

Vấn đề với dưa chua

Khi kiểm tra cơ sở hạ tầng của Hugging Face và các cách vũ khí hóa các lỗi mà họ phát hiện ra, các nhà nghiên cứu của Wiz nhận thấy rằng bất kỳ ai cũng có thể dễ dàng tải mô hình AI/ML lên nền tảng, kể cả những mô hình dựa trên định dạng Pickle. đồ chua là một mô-đun được sử dụng rộng rãi để lưu trữ các đối tượng Python trong một tệp. Mặc dù ngay cả nền tảng phần mềm Python cũng coi Pickle là không an toàn, nhưng nó vẫn phổ biến vì tính dễ sử dụng và sự quen thuộc của mọi người với nó.

Theo Wiz, việc tạo ra một mô hình PyTorch (Pickle) tương đối đơn giản để thực thi mã tùy ý khi tải.

Các nhà nghiên cứu của Wiz đã tận dụng khả năng tải một mô hình dựa trên Pickle riêng tư lên Hugging Face để chạy một lớp vỏ ngược khi tải. Sau đó, họ tương tác với nó bằng API suy luận để đạt được chức năng giống như shell mà các nhà nghiên cứu đã sử dụng để khám phá môi trường của họ trên cơ sở hạ tầng của Hugging Face.

Bài tập đó nhanh chóng cho các nhà nghiên cứu thấy mô hình của họ đang chạy trong một nhóm trong một cụm trên Amazon Elastic Kubernetes Service (EKS). Từ đó, các nhà nghiên cứu có thể tận dụng các cấu hình sai phổ biến để trích xuất thông tin cho phép họ có được các đặc quyền cần thiết để xem các bí mật có thể cho phép họ truy cập vào những người thuê khác trên cơ sở hạ tầng dùng chung.

Với Hugging Face Spaces, Wiz nhận thấy kẻ tấn công có thể thực thi mã tùy ý trong thời gian xây dựng ứng dụng để cho phép chúng kiểm tra các kết nối mạng từ máy của chúng. Đánh giá của họ cho thấy một kết nối tới sổ đăng ký vùng chứa dùng chung có chứa hình ảnh của các khách hàng khác mà họ có thể đã giả mạo.

Wiz cho biết: “Nếu rơi vào tay kẻ xấu, khả năng ghi vào cơ quan đăng ký container nội bộ có thể có tác động đáng kể đến tính toàn vẹn của nền tảng và dẫn đến các cuộc tấn công chuỗi cung ứng vào không gian của khách hàng”.

Ôm Mặt nói nó đã giảm thiểu hoàn toàn những rủi ro mà Wiz đã phát hiện ra. Trong khi đó, công ty đã xác định các vấn đề ít nhất một phần liên quan đến quyết định tiếp tục cho phép sử dụng tệp Pickle trên nền tảng Ôm mặt, bất chấp những rủi ro bảo mật được ghi chép đầy đủ nói trên liên quan đến các tệp đó.  

Công ty lưu ý: “Các tập tin Pickle là cốt lõi của hầu hết các nghiên cứu được thực hiện bởi Wiz và các ấn phẩm gần đây khác của các nhà nghiên cứu bảo mật về Ôm mặt”. Việc cho phép sử dụng Pickle trên Hugging Face là “gánh nặng đối với nhóm kỹ thuật và bảo mật của chúng tôi và chúng tôi đã nỗ lực đáng kể để giảm thiểu rủi ro đồng thời cho phép cộng đồng AI sử dụng các công cụ mà họ chọn”.

Rủi ro mới nổi với AI dưới dạng dịch vụ

Wiz mô tả khám phá của nó như là dấu hiệu cho thấy những rủi ro mà các tổ chức cần phải nhận thức được khi sử dụng cơ sở hạ tầng dùng chung để lưu trữ, vận hành và phát triển các mô hình và ứng dụng AI mới, hiện đang được gọi là “AI-as-a-service”. Công ty đã so sánh các rủi ro và biện pháp giảm thiểu liên quan với những rủi ro mà các tổ chức gặp phải trong môi trường đám mây công cộng và khuyến nghị họ cũng nên áp dụng các biện pháp giảm thiểu tương tự trong môi trường AI.

Wiz cho biết trong một blog tuần này: “Các tổ chức phải đảm bảo rằng họ có khả năng hiển thị và quản lý toàn bộ hệ thống AI đang được sử dụng và phân tích cẩn thận mọi rủi ro”. Điều này bao gồm việc phân tích “việc sử dụng mô hình độc hại, tiếp xúc với dữ liệu đào tạo, dữ liệu nhạy cảm trong đào tạo, Lỗ hổng trong SDK AI, việc tiếp xúc với các dịch vụ AI và các tổ hợp rủi ro độc hại khác có thể bị kẻ tấn công khai thác”, nhà cung cấp bảo mật cho biết.

Eric Schwake, giám đốc chiến lược an ninh mạng tại Salt Security, cho biết có hai vấn đề chính liên quan đến việc sử dụng AI dưới dạng dịch vụ mà các tổ chức cần lưu ý. Ông nói: “Đầu tiên, các tác nhân đe dọa có thể tải lên các mô hình AI có hại hoặc khai thác các lỗ hổng trong ngăn xếp suy luận để đánh cắp dữ liệu hoặc thao túng kết quả”. “Thứ hai, các tác nhân độc hại có thể cố gắng xâm phạm dữ liệu đào tạo, dẫn đến kết quả đầu ra AI sai lệch hoặc không chính xác, thường được gọi là ngộ độc dữ liệu”.

Ông nói, việc xác định những vấn đề này có thể là một thách thức, đặc biệt là với mức độ phức tạp của các mô hình AI. Để giúp quản lý một số rủi ro này, điều quan trọng là các tổ chức phải hiểu cách các ứng dụng và mô hình AI của họ tương tác với API và tìm cách bảo mật điều đó. “Các tổ chức cũng có thể muốn khám phá AI có thể giải thích (XAI) để giúp làm cho các mô hình AI trở nên dễ hiểu hơn,” Schwake nói, “và nó có thể giúp xác định và giảm thiểu sự thiên vị hoặc rủi ro trong các mô hình AI”.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img