Logo Zephyrnet

Facebook chi tiết về những tiến bộ của AI trong việc nắm bắt thông tin sai lệch và lời nói căm thù

Ngày:

Facebook Cuộc chiến chống lại thông tin sai lệch sẽ không bao giờ kết thúc với tốc độ này, nhưng điều đó không có nghĩa là công ty đã bỏ cuộc. Ngược lại, chỉ bằng cách không ngừng cải tiến các hệ thống tự động của mình, nó mới có thể giữ cho mình thậm chí từ xa không có ngôn từ kích động thù địch và thông tin sai lệch. CTO Mike Schroepfer chào hàng những cải tiến mới nhất hôm nay trong một loạt các bài viết.

Những thay đổi là đối với các hệ thống liền kề với AI mà mạng xã hội sử dụng để thu hút các lượt thích spam, các mục tin tức gây hiểu lầm và những lời nói xấu về chủng tộc - nghĩa là trước khi bất kỳ ai, kể cả người kiểm duyệt nội dung của Facebook, nhìn thấy những mục đó.

Một cải tiến là trong hệ thống phân tích ngôn ngữ mà Facebook sử dụng để phát hiện những thứ như ngôn từ kích động thù địch. Schroepfer giải thích, đây là một lĩnh vực mà công ty phải cực kỳ cẩn thận. Những hành động dương tính giả trong không gian quảng cáo (chẳng hạn như thứ gì đó có vẻ lừa đảo) có nguy cơ thấp, nhưng xác thực giả gỡ bài đăng xuống vì chúng bị nhầm với ngôn từ kích động thù địch có thể là một vấn đề nghiêm trọng. Vì vậy, điều quan trọng là phải thật tự tin khi đưa ra quyết tâm đó.

Thật không may, lời nói căm thù và nội dung liền kề có thể thực sự kém tinh tế. Ngay cả những thứ có vẻ phân biệt chủng tộc không thể chối cãi cũng có thể bị đảo ngược hoặc lật đổ chỉ bằng một từ. Tạo ra các hệ thống học máy phản ánh sự phức tạp và đa dạng của ngôn ngữ là một nhiệm vụ đòi hỏi lượng tài nguyên máy tính ngày càng tăng theo cấp số nhân.

Linformer (“biến thế tuyến tính” + ”) là công cụ mới mà Facebook tạo ra để quản lý chi phí tài nguyên đang tăng lên của việc quét hàng tỷ bài đăng mỗi ngày. Nó ước tính cơ chế chú ý trung tâm của các mô hình ngôn ngữ dựa trên máy biến áp hơn là tính toán nó một cách chính xác, nhưng ít đánh đổi về hiệu suất. (Nếu bạn hiểu tất cả những điều đó, tôi xin chúc mừng bạn.)

Điều đó có nghĩa là hiểu ngôn ngữ tốt hơn nhưng chi phí tính toán chỉ cao hơn một chút, có nghĩa là họ không cần phải sử dụng mô hình kém hơn cho làn sóng đầu tiên và sau đó chỉ chạy mô hình đắt tiền trên các mặt hàng đáng ngờ.

Các nhà nghiên cứu của công ty cũng đang nghiên cứu vấn đề hơi khó hiểu về sự tương tác của văn bản, hình ảnh và văn bản trong hình ảnh. Ảnh chụp màn hình giả của TV và các trang web, meme và những thứ khác thường thấy trong các bài đăng rất khó hiểu đối với máy tính nhưng lại là một nguồn thông tin khổng lồ. Hơn nữa, một từ được thay đổi duy nhất có thể đảo ngược hoàn toàn ý nghĩa của chúng trong khi hầu như tất cả các chi tiết trực quan vẫn được giữ nguyên.

Một ví dụ về hai trường hợp của cùng một thông tin sai lệch với hình thức trực quan hơi khác nhau. Nhận thức được cái bên trái, hệ thống đã bắt được cái bên phải. Tín dụng hình ảnh: Facebook

Schroepfer cho biết, Facebook đang ngày càng phát triển tốt hơn trong việc nắm bắt những thứ này với vô số loại trang của họ. Ông nói vẫn còn rất khó khăn, nhưng họ đã đạt được những bước tiến lớn trong việc bắt được các hình ảnh thông tin sai lệch về COVID-19 như các bản tin giả cho rằng mặt nạ gây ung thư, ngay cả khi những người đăng tải chúng thao túng và thay đổi giao diện.

Việc triển khai và duy trì các mô hình này cũng rất phức tạp, đòi hỏi một bước nhảy liên tục của tạo mẫu ngoại tuyến, triển khai, thử nghiệm trực tuyến và đưa phản hồi đó đến một nguyên mẫu mới. Trình tối ưu hóa tính toàn vẹn tăng cường áp dụng một cách tiếp cận mới, theo dõi hiệu quả của các mô hình mới trên nội dung trực tiếp, chuyển tiếp thông tin đó đến hệ thống đào tạo liên tục thay vì trong báo cáo hàng tuần.

Việc xác định Facebook có thể nói là thành công hay không là điều không dễ dàng. Mặt khác, số liệu thống kê mà họ công bố cho thấy một bức tranh tươi sáng về tỷ lệ ngôn từ kích động thù địch và thông tin sai lệch ngày càng gia tăng, với hàng triệu mẩu ngôn từ kích động thù địch, hình ảnh bạo lực và nội dung bóc lột trẻ em bị xóa so với quý trước.

Tôi đã hỏi Schroepfer bằng cách nào Facebook có thể theo dõi hoặc diễn đạt thành công hay thất bại của họ một cách chính xác hơn, vì số lượng tăng lên có thể là do cơ chế xóa được cải thiện hoặc đơn giản là khối lượng lớn hơn của nội dung đó bị gỡ xuống với cùng tốc độ.

“Đường cơ sở thay đổi liên tục, vì vậy bạn phải xem xét tất cả các chỉ số này cùng nhau. Về lâu dài, ngôi sao phía bắc của chúng tôi là phổ biến, ”ông giải thích, đề cập đến tần suất thực tế của người dùng gặp một loại nội dung nhất định hơn là liệu nó đã bị xóa trước hay một số nội dung tương tự. “Nếu tôi gỡ xuống một nghìn nội dung mà mọi người sẽ không bao giờ xem, điều đó không quan trọng. Nếu tôi gỡ bỏ một phần nội dung sắp được lan truyền, đó là một thành công lớn. "

Facebook hiện bao gồm tỷ lệ phát ngôn kích động thù địch trong hàng quý "Báo cáo thực thi các tiêu chuẩn cộng đồng," và nó định nghĩa nó như sau:

Mức độ phổ biến ước tính phần trăm số lần mọi người nhìn thấy nội dung vi phạm trên nền tảng của chúng tôi. Chúng tôi tính toán mức độ phổ biến của lời nói căm thù bằng cách chọn một mẫu nội dung được xem trên Facebook và sau đó gắn nhãn mức độ vi phạm chính sách về lời nói căm thù của chúng tôi. Vì ngôn từ kích động thù địch phụ thuộc vào ngôn ngữ và bối cảnh văn hóa, nên chúng tôi gửi các mẫu đại diện này cho người đánh giá ở các ngôn ngữ và khu vực khác nhau.

Và đối với thước đo đầu tiên của thống kê mới này:

Từ tháng 2020 năm 2020 đến tháng 0.10 năm 0.11 là 10,000% đến 10%. Nói cách khác, trong số 11 lượt xem nội dung trên Facebook, XNUMX đến XNUMX lượt xem bao gồm lời nói căm thù.

Nếu con số này không gây hiểu lầm, thì điều đó ngụ ý rằng một phần nghìn nội dung trực tuyến hiện nay trên Facebook đủ điều kiện là ngôn từ kích động thù địch. Điều đó có vẻ khá cao. (Tôi đã yêu cầu Facebook làm rõ hơn một chút về con số này.)

Người ta cũng phải đặt câu hỏi về tính đầy đủ của những ước tính này - các báo cáo từ các khu vực bị chiến tranh tàn phá như Ethiopia cho thấy rằng chúng đầy rẫy lời nói căm thù được phát hiện, báo cáo và gỡ xuống không đầy đủ. Và tất nhiên sự bùng nổ của các nội dung và nhóm dân quân chủ nghĩa cực đoan và dân tộc chủ nghĩa da trắng trên Facebook đã được ghi nhận đầy đủ.

Schroepfer nhấn mạnh rằng vai trò của anh ấy rất rõ ràng trong khía cạnh “thực hiện” của mọi việc và các câu hỏi về chính sách, nhân sự và các phần quan trọng khác trong hoạt động rộng lớn của mạng xã hội ít nhiều nằm ngoài quyền hạn của anh ấy. Thành thật mà nói, đó là một chút đáng thất vọng bởi CTO của một trong những công ty quyền lực nhất trên thế giới, người dường như rất coi trọng những vấn đề này. Nhưng người ta cũng tự hỏi liệu rằng, nếu anh ta và các nhóm của anh ta không quá chăm chỉ theo đuổi các biện pháp kỹ thuật như trên, Facebook có thể đã hoàn toàn chìm trong sự căm ghét và chế nhạo hơn là chỉ đơn giản là không thể tránh khỏi bị ảnh hưởng bởi nó.

Nguồn: https://techcrunch.com/2020/11/19/facebook-details-ai-advances-in-catching-misinformation-and-hate-speech/

tại chỗ_img

Tin tức mới nhất

tại chỗ_img