Logo Zephyrnet

Tìm hiểu cách đánh giá rủi ro của hệ thống AI | Dịch vụ web của Amazon

Ngày:

Trí tuệ nhân tạo (AI) là một lĩnh vực phát triển nhanh chóng với tiềm năng cải thiện và biến đổi nhiều khía cạnh của xã hội. Vào năm 2023, tốc độ áp dụng công nghệ AI đã tăng tốc hơn nữa với sự phát triển của các mô hình nền tảng (FM) mạnh mẽ và dẫn đến sự tiến bộ về khả năng AI tổng hợp.

Tại Amazon, chúng tôi đã ra mắt nhiều dịch vụ AI tổng hợp, chẳng hạn như nền tảng AmazonMã Amazonvà đã tạo ra một loạt các mô hình sáng tạo có khả năng cao thông qua Khởi động Amazon SageMaker. Các dịch vụ này được thiết kế để hỗ trợ khách hàng của chúng tôi khai thác các khả năng mới nổi của AI tổng hợp, bao gồm khả năng sáng tạo nâng cao, sáng tạo nội dung động và được cá nhân hóa cũng như thiết kế sáng tạo. Chúng cũng có thể cho phép những người thực hành AI hiểu được thế giới theo cách chưa từng có trước đây—giải quyết các rào cản ngôn ngữ, biến đổi khí hậu, tăng tốc các khám phá khoa học, v.v.

Tuy nhiên, để nhận ra toàn bộ tiềm năng của AI, điều quan trọng là phải suy nghĩ cẩn thận về mọi rủi ro tiềm ẩn. Trước hết, điều này mang lại lợi ích cho các bên liên quan của hệ thống AI bằng cách thúc đẩy sự phát triển và triển khai có trách nhiệm và an toàn, đồng thời khuyến khích áp dụng các biện pháp chủ động để giải quyết tác động tiềm ẩn. Do đó, việc thiết lập các cơ chế đánh giá và quản lý rủi ro là một quá trình quan trọng để những người thực hành AI xem xét và đã trở thành thành phần cốt lõi của nhiều tiêu chuẩn ngành AI mới nổi (ví dụ: ISO 42001, ISO 23894NIST RMF) và pháp luật (chẳng hạn như Đạo luật AI của EU).

Trong bài đăng này, chúng tôi thảo luận về cách đánh giá rủi ro tiềm ẩn của hệ thống AI của bạn.

Các mức độ rủi ro khác nhau là gì?

Mặc dù có thể dễ dàng hơn khi bắt đầu xem xét từng mô hình học máy (ML) riêng lẻ và các rủi ro liên quan một cách riêng biệt, nhưng điều quan trọng là phải xem xét chi tiết về ứng dụng cụ thể của mô hình đó và trường hợp sử dụng tương ứng như một phần của hệ thống AI hoàn chỉnh. . Trên thực tế, một hệ thống AI điển hình có thể dựa trên nhiều mô hình ML khác nhau hoạt động cùng nhau và một tổ chức có thể đang tìm cách xây dựng nhiều hệ thống AI khác nhau. Do đó, rủi ro có thể được đánh giá cho từng trường hợp sử dụng và ở các cấp độ khác nhau, cụ thể là rủi ro mô hình, rủi ro hệ thống AI và rủi ro doanh nghiệp.

Rủi ro doanh nghiệp bao gồm nhiều loại rủi ro mà tổ chức có thể gặp phải, bao gồm rủi ro tài chính, hoạt động và chiến lược. Rủi ro hệ thống AI tập trung vào tác động liên quan đến việc triển khai và vận hành hệ thống AI, trong khi rủi ro mô hình ML liên quan cụ thể đến các lỗ hổng và sự không chắc chắn vốn có trong các mô hình ML.

Trong bài đăng này, chúng tôi chủ yếu tập trung vào rủi ro hệ thống AI. Tuy nhiên, điều quan trọng cần lưu ý là tất cả các cấp độ quản lý rủi ro khác nhau trong một tổ chức cần được xem xét và điều chỉnh.

Rủi ro hệ thống AI được xác định như thế nào?

Quản lý rủi ro trong bối cảnh hệ thống AI có thể là một con đường giúp giảm thiểu tác động của sự không chắc chắn hoặc các tác động tiêu cực tiềm ẩn, đồng thời mang lại cơ hội để tối đa hóa các tác động tích cực. Bản thân rủi ro không phải là mối nguy hại tiềm tàng mà là ảnh hưởng của sự không chắc chắn đến các mục tiêu. Theo Khung quản lý rủi ro NIST (NIST RMF), rủi ro có thể được ước tính bằng thước đo nhân của xác suất xảy ra sự kiện theo thời gian với mức độ hậu quả của sự kiện tương ứng.

Rủi ro có hai khía cạnh: rủi ro vốn có và rủi ro còn lại. Rủi ro cố hữu thể hiện mức độ rủi ro mà hệ thống AI thể hiện khi không có biện pháp giảm thiểu hoặc kiểm soát. Rủi ro tồn dư nắm bắt các rủi ro còn lại sau khi tính đến các chiến lược giảm thiểu.

Hãy luôn nhớ rằng đánh giá rủi ro là hoạt động lấy con người làm trung tâm, đòi hỏi nỗ lực của toàn tổ chức; những nỗ lực này bao gồm từ việc đảm bảo tất cả các bên liên quan đều được tham gia vào quá trình đánh giá (chẳng hạn như các nhóm sản phẩm, kỹ thuật, khoa học, bán hàng và bảo mật) cho đến đánh giá các quan điểm và chuẩn mực xã hội ảnh hưởng như thế nào đến khả năng nhận thức được và hậu quả của một số sự kiện nhất định.

Tại sao tổ chức của bạn nên quan tâm đến việc đánh giá rủi ro?

Việc thiết lập các khuôn khổ quản lý rủi ro cho các hệ thống AI có thể mang lại lợi ích cho xã hội nói chung bằng cách thúc đẩy việc thiết kế, phát triển và vận hành các hệ thống AI một cách an toàn và có trách nhiệm. Các khuôn khổ quản lý rủi ro cũng có thể mang lại lợi ích cho các tổ chức thông qua những điều sau:

  • Cải thiện việc ra quyết định – Bằng cách hiểu các rủi ro liên quan đến hệ thống AI, các tổ chức có thể đưa ra quyết định tốt hơn về cách giảm thiểu những rủi ro đó và sử dụng hệ thống AI một cách an toàn và có trách nhiệm
  • Tăng cường lập kế hoạch tuân thủ – Khung đánh giá rủi ro có thể giúp tổ chức chuẩn bị cho các yêu cầu đánh giá rủi ro trong các luật và quy định liên quan
  • Xây dựng niềm tin – Bằng cách chứng minh rằng họ đang thực hiện các bước để giảm thiểu rủi ro của hệ thống AI, các tổ chức có thể cho khách hàng và các bên liên quan thấy rằng họ cam kết sử dụng AI một cách an toàn và có trách nhiệm

Làm thế nào để đánh giá rủi ro?

Bước đầu tiên, tổ chức nên xem xét việc mô tả trường hợp sử dụng AI cần được đánh giá và xác định tất cả các bên liên quan. Ca sử dụng là một kịch bản hoặc tình huống cụ thể mô tả cách người dùng tương tác với hệ thống AI để đạt được một mục tiêu cụ thể. Khi tạo mô tả ca sử dụng, có thể hữu ích khi chỉ định vấn đề kinh doanh đang được giải quyết, liệt kê các bên liên quan, mô tả quy trình làm việc và cung cấp chi tiết về đầu vào và đầu ra chính của hệ thống.

Khi nói đến các bên liên quan, thật dễ dàng bỏ qua một số. Hình dưới đây là điểm khởi đầu tốt để vạch ra vai trò của các bên liên quan trong AI.

Nguồn: “Công nghệ thông tin – Trí tuệ nhân tạo – Khái niệm và thuật ngữ trí tuệ nhân tạo”.

Bước quan trọng tiếp theo của đánh giá rủi ro hệ thống AI là xác định các sự kiện có hại tiềm ẩn liên quan đến trường hợp sử dụng. Khi xem xét những sự kiện này, có thể hữu ích nếu xem xét các khía cạnh khác nhau của AI có trách nhiệm, chẳng hạn như tính công bằng và mạnh mẽ. Các bên liên quan khác nhau có thể bị ảnh hưởng ở các mức độ khác nhau theo các khía cạnh khác nhau. Ví dụ: rủi ro về độ mạnh mẽ thấp đối với người dùng cuối có thể là kết quả của việc hệ thống AI gặp phải những gián đoạn nhỏ, trong khi rủi ro về tính công bằng thấp có thể do hệ thống AI tạo ra các kết quả đầu ra khác nhau không đáng kể cho các nhóm nhân khẩu học khác nhau.

Để ước tính rủi ro của một sự kiện, bạn có thể sử dụng thang đo khả năng kết hợp với thang đo mức độ nghiêm trọng để đo lường xác suất xảy ra cũng như mức độ hậu quả. Điểm khởi đầu hữu ích khi phát triển các thang đo này có thể là NIST RMF, gợi ý sử dụng các danh mục phi số định tính, từ rủi ro rất thấp đến rất cao hoặc các nguyên tắc đánh giá bán định lượng, chẳng hạn như thang đo (chẳng hạn như 1–10), bins, hoặc các nguyên tắc khác. số đại diện. Sau khi xác định thang đo khả năng và mức độ nghiêm trọng cho tất cả các khía cạnh liên quan, bạn có thể sử dụng sơ đồ ma trận rủi ro để định lượng rủi ro tổng thể của mỗi bên liên quan theo từng khía cạnh liên quan. Hình dưới đây cho thấy một ma trận rủi ro ví dụ.

Sử dụng ma trận rủi ro này, chúng ta có thể coi một sự kiện có mức độ nghiêm trọng thấp và khả năng xảy ra hiếm gặp là rủi ro rất thấp. Hãy nhớ rằng đánh giá ban đầu sẽ là ước tính về rủi ro cố hữu và các chiến lược giảm thiểu rủi ro có thể giúp giảm mức độ rủi ro hơn nữa. Quá trình này sau đó có thể được lặp lại để tạo ra xếp hạng cho mọi rủi ro còn sót lại cho mỗi sự kiện. Nếu có nhiều sự kiện được xác định trên cùng một khía cạnh, việc chọn mức độ rủi ro cao nhất trong số tất cả các sự kiện có thể hữu ích để tạo bản tóm tắt đánh giá cuối cùng.

Sử dụng bản tóm tắt đánh giá cuối cùng, các tổ chức sẽ phải xác định mức độ rủi ro nào có thể chấp nhận được đối với hệ thống AI của mình cũng như xem xét các quy định và chính sách có liên quan.

Cam kết của AWS

Thông qua các cam kết với Nhà TrắngUN, cùng với những vấn đề khác, chúng tôi cam kết chia sẻ kiến ​​thức và chuyên môn của mình để thúc đẩy việc sử dụng AI một cách có trách nhiệm và an toàn. Theo đó, Adam Selipsky của Amazon gần đây đã đại diện cho AWS tại Hội nghị thượng đỉnh về an toàn AI với sự tham dự của các nguyên thủ quốc gia và lãnh đạo ngành, điều này thể hiện rõ hơn sự cống hiến của chúng tôi trong việc hợp tác vì sự tiến bộ có trách nhiệm của trí tuệ nhân tạo.

Kết luận

Khi AI tiếp tục phát triển, việc đánh giá rủi ro ngày càng trở nên quan trọng và hữu ích đối với các tổ chức muốn xây dựng và triển khai AI một cách có trách nhiệm. Bằng cách thiết lập khung đánh giá rủi ro và kế hoạch giảm thiểu rủi ro, các tổ chức có thể giảm thiểu rủi ro xảy ra các sự cố tiềm ẩn liên quan đến AI và tạo được niềm tin với khách hàng, đồng thời thu được các lợi ích như cải thiện độ tin cậy, cải thiện tính công bằng cho các nhóm nhân khẩu học khác nhau, v.v.

Hãy tiếp tục và bắt đầu hành trình phát triển khung đánh giá rủi ro trong tổ chức của bạn và chia sẻ suy nghĩ của bạn trong phần nhận xét.

Ngoài ra, hãy xem tổng quan về rủi ro AI tổng hợp được công bố trên Amazon Science: AI có trách nhiệm trong kỷ nguyên sáng tạovà khám phá nhiều loại dịch vụ AWS có thể hỗ trợ bạn trong hành trình đánh giá và giảm thiểu rủi ro: Làm rõ Amazon SageMaker, Giám sát mô hình Amazon SageMaker, Đường mòn đám mây AWS, Cũng như các khung quản trị kiểu mẫu.


Về các tác giả

Mia C. Mayer là Nhà khoa học ứng dụng và nhà giáo dục ML tại Đại học AWS Machine Learning; nơi cô nghiên cứu và giảng dạy về tính an toàn, khả năng giải thích và tính công bằng của hệ thống Machine Learning và AI. Trong suốt sự nghiệp của mình, Mia đã thiết lập một số chương trình tiếp cận đại học, đóng vai trò là giảng viên khách mời và diễn giả chính, đồng thời trình bày tại nhiều hội nghị học tập lớn. Cô cũng giúp các nhóm nội bộ và khách hàng AWS bắt đầu hành trình AI có trách nhiệm của họ.

Denis V. Batalov là một cựu chiến binh 17 năm của Amazon và là Tiến sĩ về Máy học, Denis đã làm việc trong các dự án thú vị như Search Inside the Book, Amazon Mobile apps và Kindle Direct Publishing. Kể từ năm 2013, anh đã giúp các khách hàng của AWS áp dụng công nghệ AI/ML với tư cách là Kiến trúc sư giải pháp. Hiện tại, Denis là Nhà lãnh đạo công nghệ toàn cầu về AI/ML chịu trách nhiệm về hoạt động của Kiến trúc sư giải pháp chuyên gia AWS ML trên toàn cầu. Denis là một diễn giả thường xuyên trước công chúng, bạn có thể theo dõi anh ấy trên Twitter @dbatalov.

Tiến sĩ Sara Liu là Giám đốc chương trình kỹ thuật cấp cao của nhóm AI chịu trách nhiệm của AWS. Cô làm việc với một nhóm gồm các nhà khoa học, trưởng nhóm dữ liệu, kỹ sư ML, nhà nghiên cứu cũng như các nhóm đa chức năng khác để nâng cao tiêu chuẩn AI có trách nhiệm trên các dịch vụ AI của AWS. Các dự án hiện tại của cô liên quan đến việc phát triển thẻ dịch vụ AI, tiến hành đánh giá rủi ro cho AI có trách nhiệm, tạo bộ dữ liệu đánh giá chất lượng cao và triển khai các chương trình chất lượng. Cô cũng giúp các nhóm nội bộ và khách hàng đáp ứng các tiêu chuẩn ngày càng phát triển của ngành AI.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img