Logo Zephyrnet

EU chuẩn bị thông qua luật AI đầu tiên trên thế giới sẽ cấm nhận dạng khuôn mặt ở những nơi công cộng

Ngày:

Liên minh châu Âu (EU) đang dẫn đầu cuộc đua quản lý trí tuệ nhân tạo (AI). Chấm dứt ba ngày đàm phán, Hội đồng Châu Âu và Nghị viện Châu Âu đã đạt được thỏa thuận tạm thời vào hôm nay về những gì sắp trở thành quy định toàn diện đầu tiên trên thế giới về AI.

Carme Artigas, Bộ trưởng Ngoại giao Tây Ban Nha về số hóa và AI, gọi thỏa thuận này là một “thành tựu lịch sử” trong một nhấn phát hành. Artigas nói rằng các quy tắc này tạo ra “sự cân bằng cực kỳ tinh tế” giữa việc khuyến khích đổi mới và áp dụng AI an toàn và đáng tin cậy trên toàn EU và bảo vệ “các quyền cơ bản” của công dân.

Dự thảo luật - Đạo luật trí tuệ nhân tạo— lần đầu tiên được Ủy ban Châu Âu đề xuất vào tháng 2021 năm 2025. Quốc hội và các quốc gia thành viên EU sẽ bỏ phiếu thông qua dự thảo luật vào năm tới, nhưng các quy tắc sẽ không có hiệu lực cho đến năm XNUMX.

Cách tiếp cận dựa trên rủi ro để điều chỉnh AI

Đạo luật AI được thiết kế bằng cách sử dụng cách tiếp cận dựa trên rủi ro, trong đó hệ thống AI có rủi ro càng cao thì các quy tắc càng nghiêm ngặt. Để đạt được điều này, quy định sẽ phân loại AI để xác định những AI có 'rủi ro cao'.

Các AI được coi là không đe dọa và có rủi ro thấp sẽ phải tuân theo “nghĩa vụ minh bạch rất nhẹ”. Ví dụ: các hệ thống AI như vậy sẽ được yêu cầu tiết lộ rằng nội dung của chúng do AI tạo ra để cho phép người dùng đưa ra quyết định sáng suốt.

Đối với AI có rủi ro cao, luật sẽ bổ sung một số nghĩa vụ và yêu cầu, bao gồm:

Giám sát con người: Đạo luật yêu cầu cách tiếp cận lấy con người làm trung tâm, nhấn mạnh các cơ chế giám sát rõ ràng và hiệu quả của con người đối với các hệ thống AI có rủi ro cao. Điều này có nghĩa là có con người tham gia, tích cực theo dõi và giám sát hoạt động của hệ thống AI. Vai trò của họ bao gồm đảm bảo hệ thống hoạt động như dự kiến, xác định và giải quyết các tác hại tiềm ẩn hoặc hậu quả không lường trước được và cuối cùng chịu trách nhiệm về các quyết định và hành động của mình.

Tính minh bạch và có thể giải thích: Làm sáng tỏ hoạt động bên trong của các hệ thống AI có rủi ro cao là rất quan trọng để xây dựng lòng tin và đảm bảo trách nhiệm giải trình. Các nhà phát triển phải cung cấp thông tin rõ ràng và dễ tiếp cận về cách hệ thống của họ đưa ra quyết định. Điều này bao gồm thông tin chi tiết về các thuật toán cơ bản, dữ liệu huấn luyện và các thành kiến ​​tiềm ẩn có thể ảnh hưởng đến kết quả đầu ra của hệ thống.

Quản trị dữ liệu: Đạo luật AI nhấn mạnh việc thực hành dữ liệu có trách nhiệm, nhằm ngăn chặn sự phân biệt đối xử, thiên vị và vi phạm quyền riêng tư. Các nhà phát triển phải đảm bảo dữ liệu được sử dụng để đào tạo và vận hành các hệ thống AI có rủi ro cao là chính xác, đầy đủ và mang tính đại diện. Nguyên tắc giảm thiểu dữ liệu rất quan trọng, chỉ thu thập thông tin cần thiết cho chức năng của hệ thống và giảm thiểu nguy cơ lạm dụng hoặc vi phạm. Hơn nữa, các cá nhân phải có quyền rõ ràng để truy cập, chỉnh sửa và xóa dữ liệu của họ được sử dụng trong hệ thống AI, trao quyền cho họ kiểm soát thông tin của mình và đảm bảo việc sử dụng thông tin đó một cách có đạo đức.

Quản lý rủi ro: Việc xác định và giảm thiểu rủi ro chủ động sẽ trở thành yêu cầu chính đối với các AI có rủi ro cao. Các nhà phát triển phải triển khai các khung quản lý rủi ro mạnh mẽ để đánh giá một cách có hệ thống các tác hại, lỗ hổng tiềm ẩn và hậu quả không lường trước được của hệ thống của họ.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img