Logo Zephyrnet

Đạo đức AI: Hướng dẫn của AstraZeneca về các quy định hiện hành

Ngày:

Một số của AstraZeneca hướng dẫn để áp dụng AI có trách nhiệm và đạo đức trong hoạt động của nó đã được công khai.

Gã khổng lồ Anh-Thụy Điển có bốn nền tảng cho quản trị AI: khoảng không quảng cáo (công nghệ ghi nhật ký), định nghĩa (ứng dụng AI), khuôn khổ quản trị và các biện pháp kiểm soát cũng như các tiêu chuẩn và chính sách tổng thể về AI.

Mục lục

Đặt câu hỏi về đạo đức AI

Wale Alimi, Trưởng bộ phận Quản trị Trí tuệ Nhân tạo của AstraZeneca, cho biết tại Hội nghị thượng đỉnh AI 2022 trong Tuần lễ Công nghệ London rằng công ty vẫn đang điều tra và đặt câu hỏi trên thị trường toàn cầu. Theo ông, không có giải pháp chung cho tất cả các vấn đề này. Để tạo ra một lĩnh vực AI có đạo đức, các quy định quốc tế nên hợp tác.

“Chúng tôi là một tổ chức toàn cầu, vì vậy chúng tôi cần nhận thức rõ những quy định nào? Và làm cách nào để chúng tôi đảm bảo rằng những gì chúng tôi đang triển khai sẽ không mâu thuẫn với các quy định đó? Chúng tôi có một doanh nghiệp lớn ở Trung Quốc và Trung Quốc đã ban hành các quy định của mình. Vì vậy, chúng tôi cần kiểm tra và xác nhận rằng mọi thứ phù hợp với những điều đó. Chúng tôi mong đợi các quy định của Châu Âu sẽ được thông qua, vậy chúng có mâu thuẫn với nhau không? Và chúng ta quản lý điều đó như thế nào? ” Alimi nói.

Các Nguyên tắc Đạo đức Ai trong Hoạt động của Astrazeneca đã được Công khai.
Để tạo ra một quy định đa quốc gia về lĩnh vực AI có đạo đức nên hợp tác.

Cuộc nói chuyện của Alberto Alimi xảy ra vào thời điểm khi bảo mật dữ liệu, quy định AI và tác động của các công nghệ liên quan, bao gồm cả phương tiện tự hành và nhận dạng khuôn mặt thời gian thực, tất cả đều được đặt lên hàng đầu ở một số quốc gia và cơ quan chức năng.

Ví dụ, Đạo luật AI của EU cũng đang cố gắng điều chỉnh tương lai của trí tuệ nhân tạo. Liên minh châu Âu đang bị xáo trộn do thiếu các quy định toàn diện về trí tuệ nhân tạo. Đạo luật AI của EU là một bước quan trọng sẽ quyết định tương lai của trí tuệ nhân tạo trong bối cảnh bảo vệ dữ liệu cá nhân.

Không chỉ có vậy, "NATO công nghệ" là cần thiết để bảo vệ biên giới mạng, theo Giám đốc điều hành Darktrace. Poppy Gustafsson, CEO của công ty an ninh mạng AI Bóng tối, đã gợi ý hình thành một "NATO công nghệ" để chống lại các mối nguy an ninh mạng ngày càng tăng. Đây là những bước quan trọng để xây dựng ý thức chung cho tương lai của việc tạo ra một AI có đạo đức.

Chính phủ Anh có công bố rằng nó có ý định rời khỏi các tiêu chuẩn bảo vệ dữ liệu nhất định của Châu Âu. Tuy nhiên, chiến lược AI của nước này cũng bao gồm phát triển và thực hiện AI có đạo đức.

Trong khi đó, tại Hoa Kỳ, đang có nhiều tranh luận về việc liệu có nên làm theo tấm gương của EU và bảo vệ khách hàng khỏi các vụ vi phạm dữ liệu của Big Tech hay không, cũng như liệu có nên điều chỉnh các công nghệ như AI và nhận diện khuôn mặt thời gian thực ở cấp liên bang hay không.

Có phải việc bảo vệ cá nhân và khách hàng quan trọng hơn như Châu Âu tin tưởng? Ngoài ra, có phải là khuyến khích phát minh của khu vực tư nhân cho đến khi các tác hại có thể được giải quyết với quy định khiêm tốn? Từ lâu, Mỹ đã có chính sách này. Nhưng bây giờ chúng ta đã chứng kiến ​​những gì đã xảy ra tại Cambridge Analytica et al. doanh nghiệp có thể thực sự được tin cậy để hành động có trách nhiệm không? Họ có đóng góp cho AI có đạo đức không?

Các Nguyên tắc Đạo đức Ai trong Hoạt động của Astrazeneca đã được Công khai.
Chúng tôi đang thấy một phong trào hướng tới một cách tiếp cận châu Âu hơn để điều chỉnh Công nghệ lớn ở cả cấp tiểu bang và liên bang ở Hoa Kỳ.

Chúng tôi đang thấy một phong trào hướng tới một cách tiếp cận châu Âu hơn để điều chỉnh Công nghệ lớn ở cả cấp tiểu bang và liên bang ở Hoa Kỳ. Trong khi đó, Vương quốc Anh đã báo hiệu ý định chỉ giải quyết vấn đề đạo đức AI.

Mỗi quốc gia có những quy định khác nhau

Những khó khăn mà các sắc thái văn hóa và tranh cãi chính trị này gây ra cho bất kỳ công ty đa quốc gia nào là rất lớn vì nó buộc công ty phải lựa chọn giữa việc phát triển một giải pháp toàn cầu cố gắng làm hài lòng tất cả mọi người hoặc tạo ra một giải pháp địa phương. Các lựa chọn bao gồm đại diện cho một cái gì đó và duy trì các tiêu chuẩn cao hơn yêu cầu ở các quốc gia khác hoặc áp dụng cách tiếp cận từng phần, bản địa hóa đối với quản trị và chuẩn mực.

Alimi nói rằng giải pháp của AstraZeneca là tạo ra một trung tâm thảo luận trên toàn cầu, cho phép tổ chức hợp tác cùng nhau để đưa ra câu trả lời chính xác: “Chúng tôi có một văn phòng tư vấn tích cực, nơi mọi người đến từ khắp nơi trên thế giới để đặt câu hỏi xung quanh 'Tôi nên làm gì hay không?' Cấu trúc liên hợp của tổ chức có nghĩa là quyết định mức độ chúng tôi có thể tập trung hóa và mức độ chúng tôi có thể tiêu chuẩn hóa những thứ chúng tôi đang triển khai. Chúng ta có đặt lan can bảo vệ tại chỗ và rời từng khu vực kinh doanh để xác định xem họ có thể đặt những gì không? Đó là cách tiếp cận mà chúng tôi đã thực hiện, với một số cấp độ giám sát từ chúng tôi với tư cách là một văn phòng dữ liệu.

Các giải pháp của bên thứ ba có thể khó duy trì. “Khi chúng tôi mua các giải pháp AI, hoặc khi chúng tôi mua các hệ thống CNTT có một số khả năng AI trong đó, chúng tôi có mong đợi chúng tuân theo các nguyên tắc của chúng tôi không? Và nếu vậy, làm thế nào chúng ta có thể chứng minh rằng họ đang làm như vậy? Và khi chúng tôi hợp tác với tư cách là một tổ chức R & D - chúng tôi thực hiện nhiều hợp tác khoa học - làm thế nào chúng tôi đảm bảo rằng các bên thứ ba của chúng tôi đang tuân thủ các nguyên tắc của chúng tôi? Đây là một số thử thách mà chúng tôi phải trải qua. Tôi sẽ không nói rằng chúng ta đang ở đó. Chúng tôi vẫn đang giải quyết chúng khi thời gian trôi qua, ”Alimi nói.

Các Nguyên tắc Đạo đức Ai trong Hoạt động của Astrazeneca đã được Công khai.
Đặt câu hỏi đúng là chìa khóa để tạo ra một AI có đạo đức.

Alimi và nhóm của anh ấy đã học được gì từ việc giải quyết những vấn đề này ở cả địa phương và trên toàn thế giới?

“Chúng tôi đã đi xuống lộ trình triển khai một tiêu chuẩn toàn cầu về AI, nhưng sau đó là quyết định các chính sách và quy trình vận hành sẽ được áp dụng tại địa phương. Những gì chúng tôi đã làm ở AstraZeneca với tất cả các dự án rủi ro cao - và rất cao của chúng tôi, là chúng tôi mong đợi tại thời điểm triển khai rằng nhà khoa học chính hoặc người quản lý dự án chính sẽ chứng nhận rằng họ đã sống theo chứng chỉ AI có đạo đức của chúng tôi, ”Alimi giải thích .

Tổng hợp

Mặc dù có thể bị coi là hơi u ám, nhưng buổi nói chuyện này là một bài thuyết trình đầy thông tin và hấp dẫn, chân thực về những khó khăn trong thế giới thực khi quản lý một công nghệ đang phát triển nhanh chóng, vào một thời điểm nào đó, có thể đưa ra quyết định về cuộc sống của con người. Alimi đáng được khen ngợi vì đã thẳng thắn về những phức tạp trong nước và quốc tế mà các doanh nghiệp phải đối mặt, đặc biệt là các công ty đa quốc gia. Có vẻ như AI là một con đường dài và khó khăn hơn là những gì các nhà tiếp thị hứa hẹn.

Các Nguyên tắc Đạo đức Ai trong Hoạt động của Astrazeneca đã được Công khai.
Có vẻ như AI là một con đường dài và khó khăn hơn là những gì các nhà tiếp thị hứa hẹn.

Các chuyên gia trong lĩnh vực đang thảo luận về lĩnh vực trí tuệ nhân tạo; trước khi tạo một khuôn khổ AI có đạo đức, điều quan trọng là phải hiểu sự so sánh giữa trí tuệ nhân tạo và trí tuệ nhân tạo so với trí tuệ con người.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img

Trò chuyện trực tiếp với chúng tôi (chat)

Chào bạn! Làm thế nào để tôi giúp bạn?