Logo Zephyrnet

Các nhà nghiên cứu DeepMind cho biết AI gây ra mối đe dọa đối với những người xác định là kỳ dị

Ngày:

Tác động của AI đối với những người được xác định là kỳ quặc là một lĩnh vực chưa được khám phá mà các nhà đạo đức học và các nhà nghiên cứu cần xem xét, cùng với việc đưa nhiều giọng nói kỳ quặc hơn vào công việc của họ. Đó là theo một nghiên cứu gần đây từ DeepMind của Google xem xét tác động tích cực và tiêu cực của AI đối với những người được xác định là đồng tính nữ, đồng tính nam, song tính, chuyển giới hoặc vô tính. Đồng tác giả của một bài báo về nghiên cứu bao gồm nhà khoa học nhân viên cấp cao của DeepMind, Shakir Mohamed, người đã khuyến khích công việc vào năm ngoái cải tổ ngành công nghiệp AI với tư tưởng chống thực dânhọc máy làm việc như một cách để mang lại các hình thức AI công bằng hơn.

Bài báo DeepMind xuất bản đầu tháng này đánh một giai điệu tương tự. Bài báo viết: “Với sự áp bức lịch sử và những thách thức đương đại mà các cộng đồng người đồng tính phải đối mặt, có một nguy cơ đáng kể là các hệ thống trí tuệ nhân tạo (AI) sẽ được thiết kế và triển khai không công bằng cho các cá nhân đồng tính.

Dữ liệu về danh tính người truy vấn được thu thập ít thường xuyên hơn so với dữ liệu xung quanh các đặc điểm khác. Do thiếu dữ liệu này, các đồng tác giả của bài báo gọi sự không công bằng đối với những cá nhân này là "không thể đo lường được." Trong các cơ sở chăm sóc sức khỏe, mọi người có thể không muốn chia sẻ xu hướng tình dục của mình do sợ bị kỳ thị hoặc phân biệt đối xử. Các đồng tác giả cho biết, việc thiếu dữ liệu đó đưa ra những thách thức riêng và có thể làm tăng rủi ro cho những người đang thực hiện chuyển đổi giới tính trong y tế.

Các nhà nghiên cứu lưu ý rằng việc không thu thập dữ liệu liên quan từ những người được xác định là người đồng tính có thể gây ra "hậu quả quan trọng" đối với sự phát triển hệ thống AI trong chăm sóc sức khỏe. “Có thể trở nên không thể đánh giá sự công bằng và hiệu suất của mô hình trên các kích thước bị bỏ qua,” bài báo viết. “Cùng với nguy cơ giảm hiệu suất và không thể đo lường nó có thể hạn chế đáng kể lợi ích từ AI trong việc chăm sóc sức khỏe cho cộng đồng đồng tính, liên quan đến bệnh nhân dị tính luyến ái. Để ngăn chặn sự khuếch đại của những bất bình đẳng hiện có, cần có nghiên cứu quan trọng về công bằng có mục tiêu để xem xét tác động của các hệ thống AI trong việc chăm sóc sức khỏe cho những người đồng tính. "

Bài báo xem xét một số cách AI có thể được sử dụng để nhắm mục tiêu những người đồng tính hoặc tác động tiêu cực đến họ trong các lĩnh vực như tự do ngôn luận, quyền riêng tư và lạm dụng trực tuyến. Một nghiên cứu gần đây đã tìm thấy những thiếu sót đối với những người được xác định là không nhị phân khi nói đến AI cho công nghệ thể dục như thang đo thông minh Withings.

Trên các nền tảng truyền thông xã hội, các hệ thống kiểm duyệt nội dung tự động có thể được sử dụng để kiểm duyệt nội dung được phân loại là đáng sợ, trong khi các hệ thống phát hiện lạm dụng trực tuyến tự động thường không được đào tạo để bảo vệ người chuyển giới khỏi các trường hợp cố ý chuyển giới hoặc "Tên chết."

Về khía cạnh quyền riêng tư, bài báo nói rằng AI cho người đồng tính cũng là một vấn đề của thực tiễn quản lý dữ liệu, đặc biệt là ở các quốc gia nơi việc tiết lộ khuynh hướng tình dục hoặc giới tính của một người có thể nguy hiểm. Bạn không thể nhận ra xu hướng tình dục của một người từ khuôn mặt của họ như một nghiên cứu của Đại học Stanford năm 2017 đã tuyên bố, nhưng các đồng tác giả của bài báo đó cảnh báo rằng AI có thể được phát triển để cố gắng phân loại khuynh hướng tình dục hoặc bản dạng giới từ dữ liệu hành vi trực tuyến. AI tuyên bố nó có thể phát hiện những người xác định là người đồng tính có thể được sử dụng để thực hiện các chiến dịch đi chơi độc hại do công nghệ thúc đẩy, một mối đe dọa cụ thể ở một số khu vực nhất định trên thế giới.

“Ý nghĩa đạo đức của việc phát triển các hệ thống như vậy đối với các cộng đồng đồng tính là rất sâu rộng, với khả năng gây ra những tác hại nghiêm trọng cho những cá nhân bị ảnh hưởng. Các thuật toán dự đoán có thể được triển khai trên quy mô lớn bởi các tác nhân độc hại, đặc biệt là ở các quốc gia nơi đồng tính luyến ái và không phù hợp giới tính là hành vi phạm tội có thể bị trừng phạt ”, bài báo DeepMind viết. “Để đảm bảo tính công bằng theo thuật toán kỳ lạ, điều quan trọng là phải phát triển các phương pháp có thể cải thiện tính công bằng cho các nhóm yếu thế mà không có quyền truy cập trực tiếp vào thông tin thành viên nhóm”.

Bài báo khuyến nghị áp dụng học máy sử dụng sự riêng tư khác biệt hoặc các kỹ thuật bảo vệ quyền riêng tư khác để bảo vệ những người được xác định là người đồng tính trong môi trường trực tuyến. Các đồng tác giả cũng đề xuất khám phá các phương pháp tiếp cận hoặc khuôn khổ kỹ thuật có cách tiếp cận xen kẽ nhằm mang lại sự công bằng cho việc đánh giá các mô hình AI. Các nhà nghiên cứu xem xét thách thức trong việc giảm thiểu tác hại mà AI gây ra đối với những người được xác định là kỳ lạ, cũng như trên các nhóm người khác có danh tính hoặc đặc điểm không thể quan sát đơn giản. Bài báo lập luận rằng việc giải quyết các vấn đề công bằng trong thuật toán cho những người xác định là đồng tính luyến ái có thể tạo ra những hiểu biết sâu sắc có thể chuyển sang các đặc điểm khó quan sát khác, như giai cấp, khuyết tật, chủng tộc hoặc tôn giáo.

Bài báo cũng trích dẫn các nghiên cứu về hiệu suất của AI cho các cộng đồng người đồng tính đã được xuất bản trong vài năm gần đây.

Bài báo DeepMind là công trình gần đây nhất của Google về tầm quan trọng của việc đảm bảo tính công bằng về thuật toán cho các nhóm người cụ thể. Tháng trước, các nhà nghiên cứu của Google đã kết luận trong một giấy rằng các phương pháp tiếp cận công bằng thuật toán được phát triển ở Hoa Kỳ hoặc các khu vực khác của thế giới phương Tây không phải lúc nào cũng chuyển giao cho Ấn Độ hoặc các quốc gia không phải phương Tây khác.

Nhưng những bài báo này kiểm tra cách triển khai AI một cách đạo đức vào thời điểm mà các hoạt động đạo đức AI của Google có liên quan đến một số hành vi khá phi đạo đức. Tháng trước, Wall Street Journal báo cáo Người đồng sáng lập DeepMind và lãnh đạo đạo đức Mustafa Suleyman đã bị tước bỏ hầu hết các nhiệm vụ quản lý trước khi rời công ty vào năm 2019, sau những lời phàn nàn về việc lạm dụng và quấy rối từ đồng nghiệp. Một cuộc điều tra sau đó đã được thực hiện bởi một công ty luật tư nhân. Vài tháng sau, Suleyman nhận công việc tại Google, cố vấn cho công ty về chính sách và quy định AI, và theo người phát ngôn của công ty, Suleyman không còn quản lý các nhóm nữa.

Margaret Mitchell, người đứng đầu đạo đức về AI của Google dường như vẫn đang được điều tra nội bộ, mà chủ nhân của cô đã thực hiện một bước chia sẻ bất thường trong một tuyên bố công khai. Mitchell gần đây đã chia sẻ một email mà cô ấy nói cô ấy đã gửi đến Google trước khi cuộc điều tra bắt đầu. Trong email đó, cô ấy mô tả sự lựa chọn của Google để nhóm AI đạo đức colead Timnit Gebru tuần trước đó là "mãi mãi sau một quyết định thực sự, thực sự, thực sự khủng khiếp."

Gebru đã bị sa thải khi cô ấy đang làm việc trên một tài liệu nghiên cứu về sự nguy hiểm của các mô hình ngôn ngữ lớn. Nhiều tuần sau, Google đã phát hành một mô hình nghìn tỷ tham số, mô hình ngôn ngữ lớn nhất được biết đến của loại hình này. Một phân tích được xuất bản gần đây về GPT-3, một mô hình ngôn ngữ tham số 175 tỷ, đã kết luận rằng các công ty như Google và OpenAI chỉ có vài tháng để thiết lập các tiêu chuẩn để giải quyết các hậu quả xã hội của các mô hình ngôn ngữ lớn - bao gồm sự thiên vị, sai lệch thông tin và khả năng thay thế việc làm của con người. Sau sự cố Gebru và các cuộc họp với lãnh đạo các trường Đại học và Cao đẳng Da đen trong Lịch sử (HBCU), vào đầu tuần này, Google đã cam kết tài trợ đào tạo kỹ năng kỹ thuật số cho 100,000 phụ nữ Da đen. Trước cáo buộc trả thù từ các cựu nhân viên nữ Da đen như Gebru và nhà tuyển dụng đa dạng April Curley, Google đã bị buộc tội ngược đãi và trả đũa bởi nhiều nhân viên xác định là kỳ quặc.

Bloomberg đưa tin hôm thứ Tư rằng Google đang tái cơ cấu các nỗ lực nghiên cứu đạo đức AI của mình dưới sự điều hành của Giám đốc kỹ thuật Marian Croak của Google, một phụ nữ da đen. Theo Bloomberg, Croak sẽ giám sát nhóm AI đạo đức và báo cáo trực tiếp với Giám đốc AI của Google, Jeff Dean.

VentureBeat

Nhiệm vụ của VentureBeat là trở thành một quảng trường thành phố kỹ thuật số cho những người ra quyết định kỹ thuật có được kiến ​​thức về công nghệ chuyển đổi và giao dịch. Trang web của chúng tôi cung cấp thông tin cần thiết về công nghệ và chiến lược dữ liệu để hướng dẫn bạn khi bạn lãnh đạo tổ chức của mình. Chúng tôi mời bạn trở thành thành viên của cộng đồng của chúng tôi, để truy cập:

  • thông tin cập nhật về các chủ đề mà bạn quan tâm
  • bản tin của chúng tôi
  • nội dung dẫn dắt tư tưởng được kiểm soát và giảm giá quyền truy cập vào các sự kiện được đánh giá cao của chúng tôi, chẳng hạn như Chuyển đổi
  • các tính năng mạng và hơn thế nữa

Trở thành thành viên

Nguồn: https://venturebeat.com/2021/02/18/deepmind-researchers-say-ai-poses-a-threat-to-people-who-identify-as-queer/

tại chỗ_img

Tin tức mới nhất

tại chỗ_img