Logo Zephyrnet

Các phương pháp hay nhất về quản trị AI – DỮ LIỆU

Ngày:

Sansoen Saengsakaorat / Shutterstock.com

Quản trị AI nhằm mục đích thúc đẩy việc sử dụng trí tuệ nhân tạo một cách có trách nhiệm nhằm cải thiện loài người. Trí tuệ nhân tạo đã chứng tỏ mình khá hữu ích trong việc hoàn thành nhiều nhiệm vụ một cách nhanh chóng và hiệu quả. Thật không may, nó cũng có thể được sử dụng để hỗ trợ hành vi tội phạm hoặc tạo và phát tán thông tin sai lệch. Quản trị AI là một nỗ lực nhằm giảm thiểu việc sử dụng trí tuệ nhân tạo cho các hành vi tội phạm và phi đạo đức.

Những tiến bộ gần đây trong trí tuệ nhân tạo – ChatGPT, AI tổng quát, mô hình ngôn ngữ lớn – đã thúc đẩy cả các nhà lãnh đạo ngành và chính phủ nhận ra sự cần thiết của các hướng dẫn và quy định về đạo đức khi sử dụng AI.     

Việc xây dựng các chương trình, quy định, hướng dẫn quản trị AI là nỗ lực nhằm quản lý sự phát triển và ứng dụng công nghệ AI. Ví dụ, các nhà văn đã bày tỏ mối lo ngại đáng kể về việc bị thay thế bởi trí tuệ nhân tạo, và Hiệp hội Nhà văn Hoa Kỳ đã đình công, yêu cầu tăng lương và hạn chế nghiêm ngặt việc sử dụng trí tuệ nhân tạo. AI cho mục đích viết

Khả năng tạo ra những hình ảnh sống động như thật (gọi tắt là “hàng giả sâu”) của các cá nhân nói bất cứ điều gì mà người điều khiển AI mong muốn đã trở thành mối lo ngại đối với một số chính trị gia và nhóm chính trị. Đòi tiền chuộc được đưa ra sau khi hệ thống máy tính của doanh nghiệp bị nhiễm phần mềm độc hại do AI tạo ra hoặc sau khi tái tạo giọng nói của con gái trên điện thoại, nức nở và nói với cha mẹ. cô ấy đã bị bắt cóc.

Quản trị AI giải quyết nhiều vấn đề quan trọng khác nhau, chẳng hạn như quyền riêng tư, thành kiến ​​có sẵn, mạo danh, trộm cắp và lừa đảo. Thật không may là luật pháp và các quy định lại cần thiết để bảo vệ người dân khỏi những cá nhân yếu kém hoặc vô đạo đức. Các doanh nghiệp nên chú ý cập nhật các luật và quy định mới nổi cũng như đảm bảo việc tạo và triển khai hệ thống AI của họ tuân thủ.

Các tổ chức có thể điều hướng đạo đức quan tâm được nâng cao nhờ việc sử dụng trí tuệ nhân tạo bằng cách tuân thủ hệ thống các biện pháp thực hành tốt nhất về quản trị AI, từ đó thúc đẩy việc sử dụng có trách nhiệm nhằm cải thiện nhân loại.

Nỗ lực của chính phủ để điều chỉnh trí tuệ nhân tạo

Ở Hoa Kỳ, quyền tự do ngôn luận có thể bị nhầm lẫn với quyền tự do nói dối. Tình hình đang trở nên phức tạp và gây khó khăn cho việc ban hành bất kỳ luật nào hạn chế thông tin sai lệch. Trí tuệ nhân tạo có thể là một công cụ cực kỳ hữu ích trong việc tăng cường gian lận. 

Để phát triển một hệ thống bảo vệ cả cá nhân và quyền tự do đổi mới, các chính phủ phải thực hiện một số bước nhất định. Bước đầu tiên liên quan đến việc phát triển sự hiểu biết về các vấn đề phát sinh từ việc sử dụng trí tuệ nhân tạo một cách phi đạo đức. Tại Hoa Kỳ, Thượng viện khởi xướng điều này xảy ra khi họ yêu cầu một số CEO công nghệ tham dự chín phiên họp, phiên đầu tiên diễn ra vào ngày 13 tháng 2023 năm XNUMX, để thảo luận về mối quan ngại của các CEO về AI.

Vào ngày 30 tháng 2023 năm XNUMX, Tổng thống Biden đã ban hành lệnh điều hành liên quan đến mối quan tâm về AI. Ngoại trừ nhiệm vụ yêu cầu “các nhà phát triển hệ thống AI mạnh nhất chia sẻ kết quả kiểm tra an toàn và thông tin quan trọng khác của họ với chính phủ Hoa Kỳ”, lệnh hành pháp đề cập đến các tiêu chuẩn và hướng dẫn “phát triển”. Vào thời điểm này, Hoa Kỳ chưa xây dựng bất kỳ luật nào kiểm soát hoặc hạn chế hành vi của trí tuệ nhân tạo.  

Liên minh Châu Âu (EU) là một trong những tổ chức chính phủ đầu tiên quyết định rằng họ cần các quy định tập trung vào AI. Văn bản cuối cùng của luật đề xuất của họ, Đạo luật AI của EU, vẫn đang được phát triển theo thỏa thuận vào ngày 8 tháng 2023 năm XNUMX. Họ đã chọn phát triển một loạt cấp độ rủi ro, trong đó Hệ thống AI có rủi ro không thể chấp nhận được được mô tả là mối đe dọa đối với con người (những rủi ro này sẽ bị cấm). Rủi ro không thể chấp nhận được bao gồm:

  • Thao túng hành vi, có chủ ý, nhận thức của con người hoặc các nhóm dễ bị tổn thương cụ thể. Một ví dụ là đồ chơi kích hoạt bằng giọng nói khuyến khích trẻ thực hiện hành vi nguy hiểm.
  • Chấm điểm xã hội, quá trình phân loại mọi người dựa trên tình trạng kinh tế xã hội, hành vi hoặc đặc điểm cá nhân của họ.
  • Việc sử dụng các hệ thống nhận dạng sinh trắc học từ xa và thời gian thực.

Trung Quốc không có cùng quan điểm về tự do ngôn luận mà các chính phủ dân chủ ủng hộ. Kết quả là, các ưu tiên AI của họ là khác nhau. Các biện pháp hành chính tạm thời đối với các dịch vụ trí tuệ nhân tạo sáng tạo đã được thực hiện vào ngày 15 tháng 2023 năm XNUMX. Các quy định kiểm soát AI này yêu cầu các doanh nghiệp cung cấp dịch vụ AI tổng quát phải hoàn thành đánh giá bảo mật và lập hồ sơ thuật toán. Họ cũng yêu cầu các nhà cung cấp nỗ lực cải thiện tính chính xác, khách quan, xác thực và độ tin cậy của nội dung được tạo ra cũng như yêu cầu giám sát nội dung đó.

Nói chung, những quốc gia quan tâm đến quản trị AI vẫn đang trong quá trình xây dựng luật và quy định phù hợp.

Phát triển các phương pháp hay nhất về quản trị AI trong doanh nghiệp

Các nhà quản lý doanh nghiệp nên xem xét tác động của AI đối với khách hàng và nhân viên của họ, đồng thời thực hiện các chính sách để giảm thiểu rủi ro và tránh gây hại. Bằng cách phát triển một hệ thống thực tiễn tốt nhất về quản trị AI, các doanh nghiệp có thể hỗ trợ việc sử dụng trí tuệ nhân tạo một cách có trách nhiệm vì sự tiến bộ của loài người. 

Các phương pháp hay nhất bao gồm:

Xác định các tài liệu do AI tạo ra: Nhiều chính phủ đang thảo luận về việc bắt buộc phải sử dụng hình mờ như một cách để phân biệt tác phẩm nghệ thuật do AI tạo ra. Đối với các tổ chức trung thực và có trách nhiệm, hình mờ cung cấp một cách dễ dàng để truyền đạt tác phẩm nghệ thuật được tạo ra bởi AI chứ không phải do con người tạo ra. Vấn đề với hình mờ là chúng có thể bị xóa khá dễ dàng; để tăng khả năng gây nhầm lẫn và thông tin sai lệch, hình mờ có thể được thêm vào tác phẩm nghệ thuật do con người tạo ra. 

Các tổ chức trung thực và có trách nhiệm nên gắn hình mờ lên bất kỳ tác phẩm nghệ thuật nào do AI tạo ra. Các bài viết được viết bởi AI phải đặt “AI được tạo” ở vị trí thường đặt tên tác giả, bất kể người khởi xướng bài viết có muốn khẳng định quyền tác giả hay không. (Làm khác đi chỉ đơn giản là gây hiểu lầm và lừa dối.) 

Xử lý các sai lệch thuật toán: Những thành kiến ​​và thành kiến ​​vô tình (hoặc được gieo trồng một cách bí mật) được tích hợp trong thuật toán của AI có thể tác động đến hoạt động tuyển dụng và dịch vụ khách hàng của tổ chức bằng cách sử dụng thông tin nhân khẩu học như chủng tộc hoặc giới tính.

Để xác định xem AI có bị sai lệch hay không, hãy chạy thử nó. Kiểm tra nó nhiều lần để tìm sai lệch. Excel đã phát triển Công cụ phân tích What-If (Người tìm kiếm mục tiêu và Trình quản lý kịch bản) sẽ thực hiện các thử nghiệm này. Những công cụ này được thiết kế để thúc đẩy sự công bằng và công bằng trong hệ thống AI. Họ đảm bảo AI hoạt động mà không có sự phân biệt đối xử.

Bảo mật khách hàng: Có hai loại thông tin khách hàng cơ bản mà doanh nghiệp thu thập. Đầu tiên là do khách hàng cung cấp trực tiếp và bao gồm những thông tin như địa chỉ nhà và số điện thoại của họ, có thể là ngày sinh. Mọi người đều đồng ý rằng thông tin này phải được bảo mật và bảo vệ.

Trí tuệ nhân tạo có thể được kết hợp với Quản trị dữ liệu để hỗ trợ luật bảo mật và quyền riêng tư dữ liệu. Bằng cách phát triển chương trình Quản trị dữ liệu được hỗ trợ bởi AI và các quy tắc bảo mật, doanh nghiệp có thể giảm đáng kể rủi ro dữ liệu bị đánh cắp và khai thác. 

Dạng thông tin khách hàng thứ hai là mua từ tổ chức khác và bao gồm dữ liệu từ mô hình mua sắm trực tuyến đến hoạt động truyền thông xã hội. Loại thông tin này (được gọi là “dữ liệu của bên thứ ba”) được thu thập với mục đích lôi kéo một người mua hàng. 

Hầu hết mọi người không thích ý tưởng sở thích và nhu cầu cá nhân của họ bị quan sát và lợi dụng. Các doanh nghiệp trung thực và có trách nhiệm không nên ủng hộ việc sử dụng trí tuệ nhân tạo để thao túng con người cũng như dữ liệu của bên thứ ba nói chung.

Xây dựng triết lý “không gây hại” khi sử dụng AI: Có những doanh nghiệp chỉ có mục tiêu duy nhất là lợi nhuận ngắn hạn, trong đó lừa dối là được, miễn là nó mang lại lợi nhuận. Nhưng liệu bạn có hợp tác kinh doanh với họ nhiều lần không? Trong việc liên tục theo đuổi lợi nhuận, bạn có thể dễ dàng đánh mất bức tranh tổng thể.

Khi đạo đức được đưa vào mô hình kinh doanh, triết lý không gây hại sẽ phát triển. Thông tin trung thực, chính xác hiếm khi gây tổn hại đến cơ sở khách hàng của doanh nghiệp, nhưng hành vi lừa dối hoặc trộm cắp thường dẫn đến việc mất bất kỳ hoạt động kinh doanh nào trong tương lai với khách hàng đó. Ngoài ra, thông tin chính xác sẽ hợp lý hóa hiệu quả và dòng chảy của xã hội lớn hơn, từ đó thúc đẩy sự tiến bộ của loài người. Việc đưa ra thông tin sai lệch có thể dẫn đến sự hỗn loạn và nhầm lẫn. 

Trí tuệ nhân tạo có thể được sử dụng để thúc đẩy sự hỗn loạn và nhầm lẫn hoặc nó có thể được sử dụng cho mục đích giao tiếp tốt. 

Phát triển quy tắc đạo đức cho cả tổ chức và AI: Quy tắc đạo đức quản trị AI phải nêu rõ mong muốn và cam kết của tổ chức đối với hành vi đạo đức. Quy tắc đạo đức này có thể bao gồm cam kết “sử dụng trí tuệ nhân tạo để cung cấp thông tin chính xác” và “không được sử dụng trí tuệ nhân tạo để tạo hoặc phân phối thông tin sai lệch”.

Việc tạo ra quy tắc đạo đức quản trị AI giúp tổ chức thiết lập các tiêu chuẩn hành vi rõ ràng. Nếu được công bố rộng rãi, bộ quy tắc đạo đức của doanh nghiệp có thể giúp phát triển niềm tin của khách hàng và các bên liên quan, giảm thiểu rủi ro pháp lý và thể hiện trách nhiệm xã hội.

Người quản lý dữ liệu và báo cáo đạo đức AI: Chương trình quản trị AI nên bao gồm một loạt chính sách và thủ tục hỗ trợ các mối quan tâm về đạo đức. Một trong những chính sách này cần yêu cầu báo cáo đạo đức được lập lịch thường xuyên và người quản lý dữ liệu có vẻ là người thích hợp để giao trách nhiệm này. Bằng cách tạo ra cơ chế báo cáo về việc sử dụng trí tuệ nhân tạo của tổ chức một cách có đạo đức, lãnh đạo cấp cao có thể đảm bảo trách nhiệm giải trình. Kiểm toán định kỳ cũng có thể giúp xác định các vấn đề pháp lý tiềm ẩn và thúc đẩy việc tuân thủ. 

Các biện pháp này tăng cường chung việc thực hiện chương trình quản trị AI và thúc đẩy các hoạt động thực hành AI có trách nhiệm trong toàn tổ chức.

Đào tạo đội ngũ quản lý và nhân viên: Việc tạo ra một chương trình quản trị AI toàn diện đòi hỏi tất cả nhân viên và ban quản lý phải hiểu rõ về quy tắc đạo đức và mục tiêu dài hạn của tổ chức. Quá trình giáo dục đảm bảo rằng tất cả nhân viên đều làm việc để đạt được những mục tiêu giống nhau và không có ai trong đội ngũ nhân viên làm việc sai trái để chống lại những mục tiêu đó.

Việc sử dụng thuật toán trong quản trị AI

Nếu chúng ta, với tư cách là con người, tìm ra cách tách và xác định thông tin chính xác khỏi thông tin sai lệch, chúng ta có thể phát triển các thuật toán ngăn chặn trí tuệ nhân tạo thực hiện các hành vi tội phạm và phát tán thông tin sai lệch.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img