Logo Zephyrnet

Các quan chức tính phí các thuật toán Meta với độ chệch

Ngày:

hình ảnh

Meta, công ty mẹ của Facebook, đã đồng ý ngừng sử dụng một công cụ quảng cáo mà các quan chức Mỹ cho rằng phân biệt đối xử với người dùng dựa trên chủng tộc, màu da, tôn giáo, giới tính, khuyết tật và các đặc điểm khác khi nói đến nhà ở.

Trong trường hợp đầu tiên tính phí sai lệch thuật toán theo Đạo luật Nhà ở Công bằng (FHA), Bộ Tư pháp Hoa Kỳ nói Meta đã sử dụng các thuật toán này để xác định người dùng Facebook nào nhìn thấy quảng cáo nhà ở và người nào không. Các thuật toán này một phần dựa vào các đặc điểm được bảo vệ theo FHA.

DOJ cho biết Meta cho phép các nhà quảng cáo nhắm mục tiêu quảng cáo của họ đến những người dựa trên chủng tộc, màu da, tôn giáo, giới tính, khuyết tật, tình trạng gia đình và nguồn gốc quốc gia. Công cụ nhắm mục tiêu quảng cáo của nó sử dụng một thuật toán máy học để tìm những người dùng Facebook trông giống như đối tượng mục tiêu được các nhà quảng cáo lựa chọn.

Meta hiện đã đồng ý ngừng sử dụng công cụ - được gọi là 'Đối tượng Lookalike' hoặc 'Đối tượng quảng cáo đặc biệt' - và phát triển một hệ thống mới để giải quyết sự chênh lệch về chủng tộc và các sự khác biệt khác do việc sử dụng các thuật toán cá nhân hóa gây ra. Hệ thống đó sẽ phải chịu sự phê duyệt của Bộ Tư pháp và sự giám sát của tòa án.

Công ty đồng ý trả $ 115,000, mức phạt FHA tối đa.

Nhỏ đẹp, tượng trưng lớn

“Thỏa thuận dàn xếp này có tính lịch sử, đánh dấu lần đầu tiên Meta đồng ý chấm dứt một trong các công cụ nhắm mục tiêu theo thuật toán của mình và sửa đổi các thuật toán phân phối quảng cáo nhà ở để đối phó với một vụ kiện về quyền dân sự,” Trợ lý Bộ trưởng Tư pháp Kristen Clarke về quyền dân sự của DOJ cho biết phân công.

“Bộ Tư pháp cam kết giữ Meta và các công ty công nghệ khác phải chịu trách nhiệm khi họ lạm dụng các thuật toán theo cách gây hại bất hợp pháp cho các cộng đồng bị thiệt thòi,” Clarke nói thêm.

Nếu Meta không chứng minh được những thay đổi đầy đủ để đề phòng sự sai lệch về thuật toán, DOJ sẽ tiến hành các thủ tục pháp lý, luật sư Hoa Kỳ Damian Williams cho Quận phía Nam của New York nhấn mạnh.

Người phản biện độc lập

Vụ kiện của DOJ lập luận rằng Meta phải chịu trách nhiệm về sự đối xử khác biệt vì nó cố tình phân loại người dùng dựa trên các đặc điểm được FHA bảo vệ và thiết kế các thuật toán dựa trên các đặc điểm được FHA bảo vệ của người dùng.

Các quan chức còn cáo buộc rằng Meta phải chịu trách nhiệm về sự phân biệt đối xử tác động khác nhau vì hoạt động của các thuật toán của nó ảnh hưởng đến người dùng Facebook theo cách khác nhau dựa trên tư cách thành viên của họ trong các lớp được bảo vệ.

Theo thỏa thuận dàn xếp, Meta có thời hạn cho đến cuối năm để ngừng sử dụng công cụ này và đến tháng XNUMX để phát triển hệ thống mới của mình.

Sau đó, một chuyên gia đánh giá bên thứ ba, độc lập sẽ được cử đến để xác minh “trên cơ sở liên tục” xem hệ thống mới có tuân thủ FHA hay không. Meta cũng sẽ buộc phải cung cấp cho người đánh giá bất kỳ thông tin nào để thực hiện xác minh. Sau đó, tòa án sẽ có thẩm quyền cuối cùng để giải quyết các tranh chấp về thông tin mà Meta phải tiết lộ.

Meta để đại tu hệ thống quảng cáo

Phát ngôn viên của Meta Ashley Settle nói với Kinh doanh AI rằng “chúng tôi sẽ xây dựng một phương pháp học máy mới trong hệ thống quảng cáo của mình để thay đổi cách phân phối quảng cáo nhà ở cho những người sống ở Hoa Kỳ trong các nhóm nhân khẩu học khác nhau.”

“Trong khi HUD nêu ra lo ngại về các quảng cáo nhà ở được cá nhân hóa cụ thể, chúng tôi cũng có kế hoạch sử dụng phương pháp này cho các quảng cáo liên quan đến việc làm và tín dụng ở Hoa Kỳ,” cô nói thêm.

“Loại công việc này chưa từng có trong ngành quảng cáo và đại diện cho một tiến bộ công nghệ đáng kể về cách máy học được sử dụng để phân phối quảng cáo được cá nhân hóa. Chúng tôi rất vui mừng được đi tiên phong trong nỗ lực này, ”Settle tiếp tục.

Bài viết này lần đầu tiên xuất hiện trên IoT World Today ấn phẩm chị em Kinh doanh AI

tại chỗ_img

Tin tức mới nhất

tại chỗ_img