Logo Zephyrnet

Vận hành các nguyên tắc AI có trách nhiệm để phòng thủ – Blog IBM

Ngày:


Vận hành các nguyên tắc AI có trách nhiệm để phòng thủ – Blog IBM



Mặt sau của người phụ nữ trẻ, nhà khoa học dữ liệu tự do làm việc từ xa tại nhà lập trình mã hóa về Khai thác dữ liệu lớn, kỹ thuật dữ liệu AI, Kỹ thuật viên CNTT làm việc trong Dự án Trí tuệ nhân tạo.

Trí tuệ nhân tạo (AI) đang biến đổi xã hội, bao gồm cả đặc điểm của An ninh quốc gia. Nhận thức được điều này, Bộ Quốc phòng (DoD) đã thành lập Trung tâm Trí tuệ Nhân tạo Chung (JAIC) vào năm 2019, tiền thân của Giám đốc Văn phòng Trí tuệ Nhân tạo và Kỹ thuật số (CDAO), để phát triển các giải pháp AI nhằm xây dựng lợi thế quân sự cạnh tranh, điều kiện cho con người- áp dụng AI tập trung và tính linh hoạt của các hoạt động của DoD. Tuy nhiên, các rào cản đối với việc mở rộng quy mô, áp dụng và hiện thực hóa toàn bộ tiềm năng của AI trong DoD cũng tương tự như các rào cản trong khu vực tư nhân.

Mới đây Cuộc khảo sát của IBM nhận thấy rằng các rào cản hàng đầu ngăn cản việc triển khai AI thành công bao gồm kỹ năng và chuyên môn AI hạn chế, độ phức tạp của dữ liệu và các mối lo ngại về đạo đức. Hơn nữa, theo Viện Giá trị Kinh doanh IBM, 79% giám đốc điều hành cho biết đạo đức AI rất quan trọng đối với cách tiếp cận AI trên toàn doanh nghiệp của họ, tuy nhiên chưa đến 25% đã vận hành các nguyên tắc chung về đạo đức AI. Tạo dựng niềm tin vào kết quả đầu ra của các mô hình AI là một thách thức kỹ thuật xã hội đòi hỏi phải có giải pháp kỹ thuật xã hội.

Các nhà lãnh đạo quốc phòng tập trung vào việc vận hành việc quản lý AI có trách nhiệm trước tiên phải thống nhất về một từ vựng chung—một nền văn hóa chung hướng dẫn việc sử dụng AI một cách an toàn và có trách nhiệm—trước khi họ triển khai các giải pháp công nghệ và rào chắn nhằm giảm thiểu rủi ro. Bộ Quốc phòng có thể đặt nền tảng vững chắc để thực hiện điều này bằng cách nâng cao hiểu biết về AI và hợp tác với các tổ chức đáng tin cậy để phát triển quản trị phù hợp với các mục tiêu và giá trị chiến lược của mình.

Kiến thức về AI là điều cần phải có để bảo mật

Điều quan trọng là nhân viên biết cách triển khai AI để nâng cao hiệu quả của tổ chức. Nhưng điều quan trọng không kém là họ phải hiểu sâu sắc về những rủi ro và hạn chế của AI cũng như cách thực hiện các biện pháp bảo mật và rào cản đạo đức phù hợp. Đây là những khoản đóng góp cho DoD hoặc bất kỳ cơ quan chính phủ nào.

Lộ trình học tập AI phù hợp có thể giúp xác định những khoảng trống và đào tạo cần thiết để nhân viên có được kiến ​​thức cần thiết cho vai trò cụ thể của họ. Kiến thức về AI trong toàn tổ chức là điều cần thiết đối với tất cả nhân viên để họ có thể nhanh chóng đánh giá, mô tả và ứng phó với các mối đe dọa lan truyền nhanh, lan truyền và nguy hiểm như thông tin sai lệch và tin giả sâu. 

IBM áp dụng kiến ​​thức về AI theo cách tùy chỉnh trong tổ chức của chúng tôi vì việc xác định kiến ​​thức cơ bản khác nhau tùy thuộc vào vị trí của mỗi người.

Hỗ trợ các mục tiêu chiến lược và phù hợp với các giá trị

Là công ty đi đầu về trí tuệ nhân tạo đáng tin cậy, IBM có kinh nghiệm trong việc phát triển các khuôn khổ quản trị hướng dẫn việc sử dụng AI có trách nhiệm phù hợp với các giá trị của tổ chức khách hàng. IBM cũng có các khuôn khổ riêng để sử dụng AI trong chính IBM, cung cấp thông tin vị trí chính sách như việc sử dụng công nghệ nhận dạng khuôn mặt.

Các công cụ AI hiện được sử dụng trong an ninh quốc gia và giúp bảo vệ chống lại vi phạm dữ liệuTấn công mạng. Nhưng AI cũng hỗ trợ các mục tiêu chiến lược khác của DoD. Nó có thể tăng cường lực lượng lao động, giúp họ làm việc hiệu quả hơn và giúp họ học lại. Nó có thể giúp tạo ra sự đàn hồi chuỗi cung ứng hỗ trợ binh lính, thủy thủ, phi công và thủy quân lục chiến trong vai trò chiến đấu, viện trợ nhân đạo, gìn giữ hòa bình và cứu trợ thiên tai.

CDAO bao gồm năm nguyên tắc đạo đức về trách nhiệm, công bằng, có thể truy nguyên, đáng tin cậy và có thể quản lý được như một phần của nó. bộ công cụ AI có trách nhiệm. Dựa trên khuôn khổ đạo đức hiện có của quân đội Hoa Kỳ, những nguyên tắc này dựa trên các giá trị của quân đội và giúp duy trì cam kết của họ đối với AI có trách nhiệm.

Phải có nỗ lực phối hợp để biến những nguyên tắc này thành hiện thực thông qua việc xem xét các yêu cầu chức năng và phi chức năng trong các mô hình cũng như hệ thống quản trị xung quanh các mô hình đó. Dưới đây, chúng tôi đưa ra các khuyến nghị rộng rãi để thực hiện các nguyên tắc đạo đức của CDAO.

1. Có trách nhiệm

“Nhân viên DoD sẽ thực hiện các mức độ phán đoán và quan tâm phù hợp, đồng thời vẫn chịu trách nhiệm về việc phát triển, triển khai và sử dụng các khả năng AI.”

Mọi người đều đồng ý rằng các mô hình AI cần được phát triển bởi những nhân sự cẩn thận và chu đáo, nhưng làm thế nào các tổ chức có thể nuôi dưỡng con người làm công việc này? Chúng tôi khuyên bạn nên:

  • Thúc đẩy văn hóa tổ chức công nhận bản chất kỹ thuật xã hội của các thách thức AI. Điều này phải được truyền đạt ngay từ đầu và phải có sự thừa nhận về thực tiễn, bộ kỹ năng và sự chu đáo cần được đưa vào các mô hình và cách quản lý chúng để giám sát hiệu suất.
  • Trình bày chi tiết các thực hành đạo đức trong suốt vòng đời AI, tương ứng với các mục tiêu kinh doanh (hoặc sứ mệnh), chuẩn bị và lập mô hình dữ liệu, đánh giá và triển khai. Các CRISP-DM mô hình rất hữu ích ở đây của IBM Phương pháp khoa học dữ liệu theo tỷ lệ, một phần mở rộng của CRISP-DM, cung cấp khả năng quản trị trong suốt vòng đời của mô hình AI được thông tin bằng đầu vào hợp tác từ các nhà khoa học dữ liệu, nhà tâm lý học tổ chức công nghiệp, nhà thiết kế, chuyên gia truyền thông và những người khác. Phương pháp này kết hợp các phương pháp hay nhất về khoa học dữ liệu, quản lý dự án, khung thiết kế và quản trị AI. Các nhóm có thể dễ dàng xem và hiểu các yêu cầu ở từng giai đoạn của vòng đời, bao gồm tài liệu, người họ cần nói chuyện hoặc cộng tác cùng và các bước tiếp theo.
  • Cung cấp siêu dữ liệu mô hình AI có thể hiểu được (ví dụ: như tờ thông tin) quy định những người chịu trách nhiệm, các chuẩn mực thực hiện (so với con người), dữ liệu và phương pháp được sử dụng, hồ sơ đánh giá (ngày và của ai), mục đích và kết quả đánh giá.

Lưu ý: Những biện pháp trách nhiệm này phải được những người không phải là chuyên gia AI giải thích được (không cần “giải thích toán học”).

2. Công bằng

“Bộ sẽ thực hiện các bước có chủ ý để giảm thiểu sự thiên vị ngoài ý muốn trong khả năng AI.”

Mọi người đều đồng ý rằng việc sử dụng các mô hình AI phải công bằng và không phân biệt đối xử, nhưng điều này diễn ra như thế nào trong thực tế? Chúng tôi khuyên bạn nên:

  • Thành lập trung tâm của sự xuất sắc để cung cấp cho các nhóm đa ngành, đa ngành một cộng đồng đào tạo ứng dụng nhằm xác định tác động khác nhau tiềm ẩn.
  • Sử dụng các công cụ kiểm tra để phản ánh sự thiên vị được thể hiện trong các mô hình. Nếu sự phản ánh phù hợp với các giá trị của tổ chức thì tính minh bạch xung quanh dữ liệu và phương pháp đã chọn là chìa khóa. Nếu sự phản ánh không phù hợp với các giá trị của tổ chức thì đây là tín hiệu cho thấy điều gì đó phải thay đổi. Việc phát hiện và giảm thiểu tác động khác nhau tiềm ẩn do sai lệch gây ra không chỉ dừng lại ở việc kiểm tra dữ liệu mà mô hình đã được đào tạo. Các tổ chức cũng phải kiểm tra con người và các quy trình liên quan. Ví dụ, việc sử dụng mô hình phù hợp và không phù hợp có được truyền đạt rõ ràng không?
  • Đo lường sự công bằng và xây dựng các tiêu chuẩn công bằng hành động bằng cách cung cấp các yêu cầu chức năng và phi chức năng cho các mức độ dịch vụ khác nhau.
  • Sử dụng thiết kế suy nghĩ các khuôn khổ để đánh giá tác động ngoài ý muốn của các mô hình AI, xác định quyền của người dùng cuối và vận hành các nguyên tắc. Điều quan trọng là các bài tập tư duy thiết kế phải bao gồm những người có trải nghiệm sống rất đa dạng—càng đa dạng càng tốt.

3. Có thể truy nguyên

“Các khả năng AI của Bộ sẽ được phát triển và triển khai sao cho các nhân viên liên quan có hiểu biết thích hợp về công nghệ, quy trình phát triển và phương pháp vận hành áp dụng cho các khả năng AI, bao gồm các phương pháp, nguồn dữ liệu, quy trình và tài liệu thiết kế minh bạch và có thể kiểm tra được.”

Vận hành khả năng truy xuất nguồn gốc bằng cách cung cấp hướng dẫn rõ ràng cho tất cả nhân viên sử dụng AI:

  • Luôn thông báo rõ ràng cho người dùng khi họ giao tiếp với hệ thống AI.
  • Cung cấp nền tảng nội dung cho các mô hình AI. Trao quyền cho các chuyên gia trong miền để quản lý và duy trì các nguồn dữ liệu đáng tin cậy dùng để đào tạo mô hình. Đầu ra của mô hình dựa trên dữ liệu mà nó đã được đào tạo.

IBM và các đối tác của mình có thể cung cấp các giải pháp AI với nội dung toàn diện, có thể kiểm tra được, là nền tảng bắt buộc đối với các trường hợp sử dụng có rủi ro cao.

  • Chụp siêu dữ liệu chính để hiển thị các mô hình AI một cách minh bạch và theo dõi kho mô hình. Đảm bảo rằng siêu dữ liệu này có thể hiểu được và thông tin phù hợp được cung cấp cho nhân viên thích hợp. Giải thích dữ liệu cần thực hành và là một nỗ lực liên ngành. Tại IBM, chúng tôi Thiết kế cho AI nhóm nhằm mục đích giáo dục nhân viên về vai trò quan trọng của dữ liệu trong AI (trong số các nguyên tắc cơ bản khác) và tặng các khuôn khổ cho cộng đồng nguồn mở.
  • Làm cho siêu dữ liệu này có thể được mọi người dễ dàng tìm thấy (cuối cùng là ở nguồn đầu ra).
  • Bao gồm con người trong vòng lặp vì AI sẽ tăng cường và hỗ trợ con người. Điều này cho phép con người cung cấp phản hồi khi hệ thống AI hoạt động.
  • Tạo các quy trình và khuôn khổ để đánh giá kỹ các rủi ro về an toàn và tác động khác nhau trước khi mô hình được triển khai hoặc mua sắm. Chỉ định những người có trách nhiệm để giảm thiểu những rủi ro này.

4. Đáng tin cậy

“Các khả năng AI của Bộ sẽ có những mục đích sử dụng rõ ràng, được xác định rõ ràng và tính an toàn, bảo mật và hiệu quả của những khả năng đó sẽ phải được kiểm tra và đảm bảo trong những mục đích sử dụng đã xác định đó trong toàn bộ vòng đời của chúng.”

Các tổ chức phải ghi lại các trường hợp sử dụng được xác định rõ ràng và sau đó kiểm tra sự tuân thủ. Việc vận hành và mở rộng quy trình này đòi hỏi sự liên kết văn hóa mạnh mẽ để những người thực hiện tuân thủ các tiêu chuẩn cao nhất ngay cả khi không có sự giám sát trực tiếp liên tục. Các phương pháp hay nhất bao gồm:

  • Thành lập các cộng đồng liên tục khẳng định tại sao kết quả đầu ra công bằng, đáng tin cậy là rất cần thiết. Nhiều học viên tha thiết tin rằng chỉ cần có ý định tốt nhất thì sẽ không thể có tác động khác biệt. Điều này là sai lầm. Việc đào tạo áp dụng bởi các nhà lãnh đạo cộng đồng có tính gắn kết cao, những người khiến mọi người cảm thấy được lắng nghe và hòa nhập là rất quan trọng.
  • Xây dựng cơ sở lý luận về kiểm tra độ tin cậy xung quanh các hướng dẫn và tiêu chuẩn cho dữ liệu được sử dụng trong đào tạo mô hình. Cách tốt nhất để biến điều này thành hiện thực là đưa ra những ví dụ về những gì có thể xảy ra khi thiếu sự xem xét kỹ lưỡng này.
  • Giới hạn quyền truy cập của người dùng vào việc phát triển mô hình, nhưng thu thập các quan điểm đa dạng khi bắt đầu dự án để giảm thiểu sai lệch khi đưa ra.
  • Thực hiện kiểm tra quyền riêng tư và bảo mật trong toàn bộ vòng đời AI.
  • Bao gồm các biện pháp đo lường độ chính xác trong các cuộc kiểm toán định kỳ theo lịch trình. Hãy thẳng thắn một cách dứt khoát về hiệu suất của mô hình so với con người như thế nào. Nếu mô hình không cung cấp kết quả chính xác, hãy nêu chi tiết ai chịu trách nhiệm về mô hình đó và người dùng có quyền truy đòi gì. (Tất cả điều này sẽ được đưa vào siêu dữ liệu có thể giải thích được và có thể tìm thấy được).

5. Có thể quản lý được

“Bộ sẽ thiết kế và chế tạo các khả năng AI để thực hiện các chức năng dự định của chúng, đồng thời sở hữu khả năng phát hiện và tránh những hậu quả không lường trước cũng như khả năng ngắt kết nối hoặc hủy kích hoạt các hệ thống đã triển khai thể hiện hành vi ngoài ý muốn.”

Việc thực hiện nguyên tắc này đòi hỏi:

  • Đầu tư mô hình AI không dừng lại ở việc triển khai. Dành nguồn lực để đảm bảo các mô hình tiếp tục hoạt động như mong muốn và mong đợi. Đánh giá và giảm thiểu rủi ro trong suốt vòng đời AI, không chỉ sau khi triển khai.
  • Chỉ định một bên chịu trách nhiệm có nhiệm vụ được tài trợ để thực hiện công việc quản trị. Họ phải có quyền lực.
  • Đầu tư vào truyền thông, xây dựng cộng đồng và giáo dục. Tận dụng các công cụ như watsonx.governance đến giám sát hệ thống AI.
  • Nắm bắt và quản lý hàng tồn kho mô hình AI như mô tả ở trên.
  • Triển khai các biện pháp an ninh mạng trên tất cả các mô hình.

IBM đi đầu trong việc phát triển AI đáng tin cậy

IBM đã đi đầu trong việc thúc đẩy các nguyên tắc AI đáng tin cậy và là người đi đầu về tư tưởng trong việc quản trị các hệ thống AI kể từ khi chúng ra đời. Chúng tôi tuân theo các nguyên tắc lâu đời về sự tin cậy và minh bạch, trong đó nêu rõ vai trò của AI là tăng cường chứ không phải thay thế chuyên môn và khả năng phán đoán của con người.

Năm 2013, IBM bắt đầu hành trình giải thích và minh bạch trong AI và học máy. IBM là công ty đi đầu về đạo đức AI, đã bổ nhiệm một nhà lãnh đạo toàn cầu về đạo đức AI vào năm 2015 và thành lập một hội đồng đạo đức AI vào năm 2018. Các chuyên gia này làm việc để giúp đảm bảo các nguyên tắc và cam kết của chúng tôi được duy trì trong các cam kết kinh doanh toàn cầu của chúng tôi. Vào năm 2020, IBM đã tặng bộ công cụ AI có trách nhiệm của mình cho Quỹ Linux để giúp xây dựng tương lai của AI công bằng, an toàn và đáng tin cậy.

IBM dẫn đầu các nỗ lực toàn cầu nhằm định hình tương lai của AI có trách nhiệm và các số liệu, tiêu chuẩn và phương pháp thực hành tốt nhất về AI có đạo đức:

  • Tham gia với chính quyền của Tổng thống Biden trong việc phát triển Sắc lệnh điều hành AI của mình
  • Tiết lộ/nộp hơn 70 bằng sáng chế cho AI có trách nhiệm
  • Giám đốc điều hành IBM Arvind Krishna đồng chủ trì ban chỉ đạo Liên minh hành động AI toàn cầu do Diễn đàn kinh tế thế giới (WEF) thành lập,
  • Alliance tập trung vào việc đẩy nhanh việc áp dụng trí tuệ nhân tạo toàn diện, minh bạch và đáng tin cậy trên toàn cầu
  • Đồng tác giả hai bài báo do WEF xuất bản về AI sáng tạo nhằm khai thác giá trị và phát triển các hệ thống và công nghệ an toàn.
  • Đồng chủ tịch Ủy ban AI đáng tin cậy Linux Foundation AI
  • Đã đóng góp cho Khung quản lý rủi ro AI của NIST; tham gia với NIST trong lĩnh vực đo lường, tiêu chuẩn và thử nghiệm AI

Việc quản lý AI có trách nhiệm là một thách thức nhiều mặt vì nó đòi hỏi các giá trị con người phải được phản ánh một cách nhất quán và đáng tin cậy trong công nghệ của chúng ta. Nhưng nó rất đáng nỗ lực. Chúng tôi tin rằng các hướng dẫn ở trên có thể giúp Bộ Quốc phòng vận hành AI đáng tin cậy và giúp Bộ này hoàn thành sứ mệnh của mình.

Để biết thêm thông tin về cách IBM có thể trợ giúp, vui lòng truy cập Tư vấn quản trị AI | IBM

Tạo cách tiếp cận quản trị AI toàn diện

Nhiêu tai nguyên hơn:

Bài viết này hữu ích không?

Không


Xem thêm từ Trí tuệ nhân tạo




Khai thác lợi ích tài chính thông qua kiếm tiền từ dữ liệu

6 phút đọcKiếm tiền từ dữ liệu trao quyền cho các tổ chức sử dụng tài sản dữ liệu và khả năng trí tuệ nhân tạo (AI) của họ để tạo ra giá trị kinh tế hữu hình. Hệ thống trao đổi giá trị này sử dụng các sản phẩm dữ liệu để nâng cao hiệu quả kinh doanh, đạt được lợi thế cạnh tranh và giải quyết các thách thức của ngành để đáp ứng nhu cầu thị trường. Lợi ích tài chính bao gồm tăng doanh thu thông qua việc tạo ra các mô hình kinh doanh ngành lân cận, tiếp cận các thị trường mới để thiết lập nhiều nguồn doanh thu hơn và tăng doanh thu hiện có. Tối ưu hóa chi phí có thể đạt được thông qua sự kết hợp của việc nâng cao năng suất, cơ sở hạ tầng…




Giảm lỗi và thời gian ngừng hoạt động bằng tính năng kiểm tra tự động được hỗ trợ bởi AI

3 phút đọcMột nhà sản xuất ô tô lớn, đa quốc gia chịu trách nhiệm sản xuất hàng triệu xe mỗi năm, hợp tác với IBM để hợp lý hóa quy trình sản xuất của họ bằng các cuộc kiểm tra tự động, liền mạch được thúc đẩy bởi dữ liệu thời gian thực và trí tuệ nhân tạo (AI). Là một nhà sản xuất ô tô, khách hàng của chúng tôi có nghĩa vụ cố hữu là cung cấp các sản phẩm chất lượng cao. Lý tưởng nhất là họ cần phát hiện và sửa chữa tốt mọi khiếm khuyết trước khi ô tô đến tay người tiêu dùng. Những khiếm khuyết này thường tốn kém, khó xác định và gây ra vô số rủi ro đáng kể đối với sự hài lòng của khách hàng.…




Tiết lộ công nghệ AI biến đổi đằng sau Đơn đặt hàng watsonx

4 phút đọcBạn đang đến cửa hàng lái xe yêu thích của mình để mua khoai tây chiên và bánh mì kẹp phô mai. Đó là một mệnh lệnh đơn giản và khi bạn kéo vào, bạn nhận thấy không có nhiều hàng đợi. Cái gì có thể đi sai? Nhiều. Nhà hàng nằm gần một xa lộ đông đúc với tiếng ồn giao thông ầm ĩ và máy bay bay thấp trên đầu khi đến gần sân bay gần đó. Đó là gió. Âm thanh nổi đang nổ trong chiếc xe phía sau bạn và khách hàng ở làn đường bên cạnh đang cố gắng gọi món ở…

Bản tin IBM

Nhận các bản tin và cập nhật chủ đề của chúng tôi nhằm cung cấp thông tin chi tiết và lãnh đạo tư tưởng mới nhất về các xu hướng mới nổi.

Theo dõi ngay

Các bản tin khác

tại chỗ_img

Tin tức mới nhất

tại chỗ_img