Logo Zephyrnet

Dự báo khả năng sử dụng sai các mô hình ngôn ngữ cho các chiến dịch thông tin sai lệch—và cách giảm thiểu rủi ro

Ngày:

Các nhà nghiên cứu của OpenAI đã hợp tác với Trung tâm An ninh và Công nghệ mới nổi của Đại học Georgetown và Đài quan sát Internet Stanford để điều tra xem các mô hình ngôn ngữ lớn có thể bị lạm dụng như thế nào cho mục đích thông tin sai lệch. Sự hợp tác này bao gồm một hội thảo vào tháng 2021 năm 30 quy tụ XNUMX nhà nghiên cứu thông tin sai lệch, chuyên gia máy học và nhà phân tích chính sách, đồng thời đạt đến đỉnh cao là một báo cáo đồng tác giả được xây dựng trên hơn một năm nghiên cứu. Báo cáo này nêu ra những mối đe dọa mà các mô hình ngôn ngữ gây ra cho môi trường thông tin nếu được sử dụng để tăng cường các chiến dịch đưa thông tin sai lệch và giới thiệu một khuôn khổ để phân tích các biện pháp giảm thiểu tiềm năng. Đọc báo cáo đầy đủ tại đây.

Đọc báo cáo

Khi các mô hình ngôn ngữ tổng quát được cải thiện, chúng mở ra những khả năng mới trong các lĩnh vực đa dạng như chăm sóc sức khỏe, luật, giáo dục và khoa học. Tuy nhiên, như với bất kỳ công nghệ mới nào, cần xem xét chúng có thể bị lạm dụng như thế nào. Trong bối cảnh các hoạt động gây ảnh hưởng trực tuyến định kỳ—bí mật or lừa đảo nỗ lực gây ảnh hưởng đến ý kiến ​​của đối tượng mục tiêu—bài báo đặt câu hỏi:

Làm thế nào các mô hình ngôn ngữ có thể thay đổi các hoạt động ảnh hưởng và những bước nào có thể được thực hiện để giảm thiểu mối đe dọa này?

Công việc của chúng tôi tập hợp các nền tảng và chuyên môn khác nhau—các nhà nghiên cứu có nền tảng về chiến thuật, kỹ thuật và quy trình của các chiến dịch cung cấp thông tin sai lệch trực tuyến, cũng như các chuyên gia máy học trong lĩnh vực trí tuệ nhân tạo tổng quát—để làm cơ sở cho phân tích của chúng tôi về các xu hướng trong cả hai lĩnh vực.

Chúng tôi tin rằng điều quan trọng là phải phân tích mối đe dọa của các hoạt động gây ảnh hưởng do AI hỗ trợ và phác thảo các bước có thể thực hiện trước các mô hình ngôn ngữ được sử dụng cho các hoạt động ảnh hưởng ở quy mô lớn. Chúng tôi hy vọng nghiên cứu của mình sẽ cung cấp thông tin cho các nhà hoạch định chính sách mới đối với lĩnh vực AI hoặc thông tin sai lệch, đồng thời thúc đẩy nghiên cứu chuyên sâu về các chiến lược giảm thiểu tiềm năng cho các nhà phát triển AI, nhà hoạch định chính sách và nhà nghiên cứu thông tin sai lệch.

Làm thế nào AI có thể ảnh hưởng đến các hoạt động ảnh hưởng?

Khi các nhà nghiên cứu đánh giá các hoạt động ảnh hưởng, họ xem xét diễn viên, hành vi và nội dung. Sự sẵn có rộng rãi của công nghệ được hỗ trợ bởi các mô hình ngôn ngữ có khả năng tác động đến cả ba khía cạnh:

  1. Diễn viên: Các mô hình ngôn ngữ có thể giảm chi phí vận hành các hoạt động gây ảnh hưởng, đặt chúng trong tầm với của các tác nhân và loại tác nhân mới. Tương tự như vậy, các nhà tuyên truyền cho thuê tự động sản xuất văn bản có thể đạt được những lợi thế cạnh tranh mới.

  2. Hành vi: Các hoạt động gây ảnh hưởng với các mô hình ngôn ngữ sẽ dễ dàng mở rộng quy mô hơn và các chiến thuật hiện đang tốn kém (ví dụ: tạo nội dung được cá nhân hóa) có thể trở nên rẻ hơn. Các mô hình ngôn ngữ cũng có thể cho phép xuất hiện các chiến thuật mới—chẳng hạn như tạo nội dung theo thời gian thực trong chatbot.

  3. Nội dung: Các công cụ tạo văn bản được cung cấp bởi các mô hình ngôn ngữ có thể tạo ra thông điệp có sức ảnh hưởng hoặc thuyết phục hơn so với các nhà tuyên truyền, đặc biệt là những người thiếu kiến ​​thức ngôn ngữ hoặc văn hóa cần thiết về mục tiêu của họ. Chúng cũng có thể làm cho các hoạt động gây ảnh hưởng ít bị phát hiện hơn, vì chúng liên tục tạo nội dung mới mà không cần sử dụng đến thao tác sao chép và các hành vi tiết kiệm thời gian đáng chú ý khác.

Đánh giá cuối cùng của chúng tôi là các mô hình ngôn ngữ sẽ hữu ích cho các nhà tuyên truyền và có khả năng sẽ chuyển đổi các hoạt động gây ảnh hưởng trực tuyến. Ngay cả khi các mô hình tiên tiến nhất được giữ kín hoặc được kiểm soát thông qua quyền truy cập giao diện lập trình ứng dụng (API), những người tuyên truyền có thể sẽ bị thu hút bởi các giải pháp thay thế nguồn mở và các quốc gia có thể tự đầu tư vào công nghệ.

ẩn số quan trọng

Nhiều yếu tố ảnh hưởng đến việc các mô hình ngôn ngữ có được sử dụng hay không và mức độ ảnh hưởng đến các hoạt động tác động. Báo cáo của chúng tôi đi sâu vào nhiều cân nhắc này. Ví dụ:

  • Những khả năng ảnh hưởng mới nào sẽ xuất hiện như một tác dụng phụ của nghiên cứu có thiện chí hoặc đầu tư thương mại? Những diễn viên nào sẽ đầu tư đáng kể vào các mô hình ngôn ngữ?
  • Khi nào các công cụ dễ sử dụng để tạo văn bản sẽ được cung cấp công khai? Sẽ hiệu quả hơn nếu thiết kế các mô hình ngôn ngữ cụ thể cho các hoạt động gây ảnh hưởng, thay vì áp dụng các mô hình chung chung?
  • Liệu các chuẩn mực có phát triển làm nản lòng những người thực hiện các hoạt động gây ảnh hưởng do AI hỗ trợ không? Ý định diễn viên sẽ phát triển như thế nào?

Mặc dù chúng tôi hy vọng sẽ thấy sự phổ biến của công nghệ cũng như những cải tiến về khả năng sử dụng, độ tin cậy và hiệu quả của các mô hình ngôn ngữ, nhiều câu hỏi về tương lai vẫn chưa được trả lời. Bởi vì đây là những khả năng quan trọng có thể thay đổi cách các mô hình ngôn ngữ có thể tác động đến các hoạt động, nên nghiên cứu bổ sung để giảm bớt sự không chắc chắn là rất có giá trị.

Khuôn khổ giảm nhẹ

Để vạch ra một lộ trình phía trước, báo cáo đưa ra các giai đoạn chính trong quy trình vận hành từ mô hình đến ảnh hưởng của ngôn ngữ. Mỗi giai đoạn này là một điểm để giảm thiểu tiềm năng. Để tiến hành thành công một hoạt động gây ảnh hưởng tận dụng một mô hình ngôn ngữ, các nhà tuyên truyền sẽ yêu cầu: (1) một mô hình tồn tại, (2) họ có thể truy cập nó một cách đáng tin cậy, (3) họ có thể phổ biến nội dung khỏi mô hình và (4) người dùng cuối bị ảnh hưởng. Nhiều chiến lược giảm thiểu khả thi nằm trong bốn bước này, như minh họa bên dưới.

Giai đoạn trong đường ống 1. Xây dựng mô hình 2. Truy cập mô hình 3. Phổ biến nội dung 4. Hình Thành Niềm Tin
minh họa giảm thiểu Các nhà phát triển AI xây dựng các mô hình nhạy cảm hơn với thực tế. Các nhà cung cấp AI áp đặt các hạn chế sử dụng nghiêm ngặt hơn đối với các mô hình ngôn ngữ. Nền tảng và nhà cung cấp AI phối hợp để xác định nội dung AI. Các tổ chức tham gia vào các chiến dịch xóa mù chữ trên phương tiện truyền thông.
Các nhà phát triển lan truyền dữ liệu phóng xạ để làm cho các mô hình thế hệ có thể phát hiện được. Các nhà cung cấp AI phát triển các tiêu chuẩn mới xung quanh việc phát hành mô hình. Các nền tảng yêu cầu “bằng chứng về tư cách cá nhân” để đăng. Các nhà phát triển cung cấp các công cụ AI tập trung vào người tiêu dùng.
Chính phủ áp đặt các hạn chế đối với việc thu thập dữ liệu. Các nhà cung cấp AI đóng các lỗ hổng bảo mật. Các thực thể dựa vào thông tin đầu vào của công chúng sẽ thực hiện các bước để giảm khả năng tiếp xúc với nội dung AI gây hiểu lầm.
Chính phủ áp đặt các biện pháp kiểm soát truy cập trên phần cứng AI. Tiêu chuẩn xuất xứ kỹ thuật số được áp dụng rộng rãi.

Nếu một biện pháp giảm nhẹ tồn tại, nó có đáng mong đợi không?

Chỉ vì một biện pháp giảm thiểu có thể làm giảm mối đe dọa của các hoạt động gây ảnh hưởng do AI hỗ trợ không có nghĩa là nó nên được áp dụng. Một số biện pháp giảm nhẹ mang theo những rủi ro tiêu cực của riêng chúng. Những người khác có thể không khả thi. Mặc dù chúng tôi không xác nhận hoặc đánh giá các biện pháp giảm thiểu một cách rõ ràng, nhưng bài viết này cung cấp một bộ câu hỏi hướng dẫn để các nhà hoạch định chính sách và những người khác cân nhắc:

  • Tính khả thi về kỹ thuật: Biện pháp giảm thiểu được đề xuất có khả thi về mặt kỹ thuật không? Nó có đòi hỏi những thay đổi đáng kể đối với cơ sở hạ tầng kỹ thuật không?
  • Tính khả thi xã hội: Việc giảm thiểu có khả thi từ góc độ chính trị, luật pháp và thể chế không? Nó có đòi hỏi sự phối hợp tốn kém không, các tác nhân chính có được khuyến khích thực hiện nó không và nó có khả thi theo luật, quy định và tiêu chuẩn ngành hiện hành không?
  • Rủi ro giảm giá: Các tác động tiêu cực tiềm ẩn của việc giảm thiểu là gì và chúng có ý nghĩa như thế nào?
  • Va chạm: Biện pháp giảm thiểu được đề xuất sẽ có hiệu quả như thế nào trong việc giảm thiểu mối đe dọa?

Chúng tôi hy vọng khuôn khổ này sẽ thúc đẩy các ý tưởng cho các chiến lược giảm thiểu khác và các câu hỏi hướng dẫn sẽ giúp các tổ chức liên quan bắt đầu xem xét liệu các biện pháp giảm thiểu khác nhau có đáng để theo đuổi hay không.

Báo cáo này không phải là lời cuối cùng về AI và tương lai của các hoạt động gây ảnh hưởng. Mục đích của chúng tôi là xác định môi trường hiện tại và giúp thiết lập chương trình nghị sự cho nghiên cứu trong tương lai. Chúng tôi khuyến khích bất kỳ ai quan tâm đến việc cộng tác hoặc thảo luận về các dự án có liên quan hãy kết nối với chúng tôi. Để biết thêm, hãy đọc báo cáo đầy đủ tại đây.

Đọc báo cáo

báo cáo tác giả

Josh A. Goldstein (Trung tâm An ninh và Công nghệ mới nổi của Đại học Georgetown)
Girish Sastry (AI mở)
Micah Musser (Trung tâm An ninh và Công nghệ mới nổi của Đại học Georgetown)
Renee DiResta (Đài quan sát Internet Stanford)
Matthew Gentzel (Longview Philanthropy) (công việc được thực hiện tại OpenAI)
Katerina Sedova (Bộ Ngoại giao Hoa Kỳ) (công việc được thực hiện tại Trung tâm An ninh và Công nghệ Mới nổi trước khi phục vụ chính phủ)

tại chỗ_img

Tin tức mới nhất

tại chỗ_img