Logo Zephyrnet

Deepfake trong năm bầu cử toàn cầu 2024: Vũ khí lừa dối hàng loạt?

Ngày:

Bảo mật kỹ thuật số

Khi hình ảnh, video và clip âm thanh bịa đặt của người thật trở nên phổ biến, khả năng xảy ra một loạt thông tin sai lệch do AI cung cấp là nguyên nhân gây ra mối lo ngại ngày càng tăng.

Deepfake trong năm bầu cử toàn cầu 2024: Vũ khí lừa dối hàng loạt?

Tin tức giả đã thống trị các tiêu đề bầu cử kể từ đó đã trở thành một câu chuyện lớn trong cuộc đua vào Nhà Trắng năm 2016. Nhưng XNUMX năm sau, có một mối đe dọa lớn hơn được cho là: sự kết hợp giữa làm mất thông tindeepfakes điều đó có thể đánh lừa ngay cả các chuyên gia. Khả năng cao là gần đây ví dụ nội dung do AI tạo ra theo chủ đề bầu cử – bao gồm hàng loạt hình ảnh và video được lưu hành trong thời gian chuẩn bị cho cuộc bầu cử hiện tại ở Argentinaâm thanh được chỉnh sửa của Tổng thống Mỹ Joe Biden – là những điềm báo về những gì có thể xảy ra trên quy mô lớn hơn.

Với khoảng một một phần tư dân số thế giới Hướng tới các cuộc thăm dò vào năm 2024, mối lo ngại đang gia tăng rằng thông tin sai lệch và thủ thuật do AI cung cấp có thể được những kẻ bất chính sử dụng để tác động đến kết quả, khiến nhiều chuyên gia lo ngại hậu quả của việc deepfake sẽ trở thành xu hướng phổ biến.

Mối đe dọa thông tin sai lệch deepfake

Như đã đề cập, năm nay không dưới hai tỷ người sắp đến các điểm bỏ phiếu ở địa phương của họ để bỏ phiếu cho các đại diện và lãnh đạo nhà nước mà họ yêu thích. Khi các cuộc bầu cử lớn sắp diễn ra ở nhiều quốc gia, bao gồm Mỹ, Anh và Ấn Độ (cũng như Nghị viện châu Âu), điều này có khả năng thay đổi bối cảnh chính trị và định hướng địa chính trị trong vài năm tới - và vượt ra.

Tuy nhiên, đồng thời, thông tin sai lệch và thông tin sai lệch gần đây đã xuất hiện xếp hạng được Diễn đàn Kinh tế Thế giới (WEF) coi là rủi ro toàn cầu số một trong hai năm tới.

Thách thức với deepfake là công nghệ hỗ trợ AI hiện ngày càng rẻ, dễ tiếp cận và đủ mạnh để gây hại trên quy mô lớn. Nó dân chủ hóa khả năng của tội phạm mạng, các tác nhân nhà nước và những kẻ tấn công để khởi động các chiến dịch thông tin sai lệch thuyết phục và hơn thế nữa đặc biệt, lừa đảo một lần. Đó là một phần lý do tại sao WEF gần đây xếp thông tin sai lệch/thông tin sai lệch là rủi ro toàn cầu lớn nhất trong hai năm tới và là rủi ro số hai hiện nay, sau thời tiết khắc nghiệt. Đó là ý kiến ​​của 1,490 chuyên gia từ các học viện, doanh nghiệp, chính phủ, cộng đồng quốc tế và xã hội dân sự mà WEF đã tham khảo ý kiến.

Báo cáo cảnh báo:“Nội dung tổng hợp sẽ thao túng các cá nhân, gây thiệt hại cho nền kinh tế và làm rạn nứt xã hội theo nhiều cách trong hai năm tới… có nguy cơ là một số chính phủ sẽ hành động quá chậm, phải đối mặt với sự đánh đổi giữa việc ngăn chặn thông tin sai lệch và bảo vệ quyền tự do ngôn luận.”

deepfakes-thông tin sai lệch-chính trị

(Sâu)giả vờ nó

Thách thức là các công cụ như ChatGPT và AI tổng hợp (GenAI) có thể truy cập miễn phí đã giúp nhiều cá nhân hơn có thể tham gia vào việc tạo ra các chiến dịch thông tin sai lệch được thúc đẩy bởi công nghệ deepfake. Với tất cả những công việc khó khăn đã được thực hiện, những kẻ độc hại có nhiều thời gian hơn để xử lý các thông điệp của chúng và nỗ lực khuếch đại để đảm bảo nội dung giả mạo của chúng được nhìn thấy và nghe thấy.

Trong bối cảnh bầu cử, deepfake rõ ràng có thể được sử dụng để làm xói mòn lòng tin của cử tri đối với một ứng cử viên cụ thể. Suy cho cùng, việc thuyết phục ai đó không làm điều gì đó sẽ dễ dàng hơn là làm ngược lại. Nếu những người ủng hộ một đảng phái chính trị hoặc ứng cử viên có thể bị ảnh hưởng một cách thích hợp bởi âm thanh hoặc video giả mạo thì đó sẽ là một chiến thắng chắc chắn cho các nhóm đối thủ. Trong một số tình huống, các quốc gia bất hảo có thể tìm cách làm suy yếu niềm tin vào toàn bộ quá trình dân chủ, do đó, bất cứ ai thắng sẽ gặp khó khăn trong việc cai trị một cách hợp pháp.

Trọng tâm của thách thức nằm ở một sự thật đơn giản: khi con người xử lý thông tin, họ có xu hướng coi trọng số lượng và tính dễ hiểu. Điều đó có nghĩa là chúng ta càng xem nhiều nội dung có thông điệp tương tự và càng dễ hiểu thì khả năng chúng ta tin vào nội dung đó càng cao. Đó là lý do tại sao các chiến dịch tiếp thị có xu hướng bao gồm các thông điệp ngắn và được lặp lại liên tục. Thêm vào đó là thực tế rằng các nội dung giả mạo ngày càng khó phân biệt với nội dung thực và bạn có nguy cơ dẫn đến thảm họa dân chủ.

Từ lý thuyết đến thực hành

Điều đáng lo ngại là deepfake có thể sẽ tác động đến tâm lý cử tri. Lấy ví dụ mới này: Vào tháng 2024 năm XNUMX, một đoạn âm thanh deepfake của Tổng thống Mỹ Joe Biden đã được lưu hành thông qua cuộc gọi tự động tới một số lượng cử tri sơ bộ không xác định ở New Hampshire. Trong tin nhắn, rõ ràng anh ấy đã nói với họ rằng đừng tham gia mà thay vào đó hãy “để dành phiếu bầu của bạn cho cuộc bầu cử vào tháng 11”. Số ID người gọi hiển thị cũng bị làm giả để có vẻ như tin nhắn tự động được gửi từ số cá nhân của Kathy Sullivan, cựu chủ tịch Đảng Dân chủ của bang hiện đang điều hành super-PAC ủng hộ Biden.

Không khó để thấy những lời kêu gọi như vậy có thể được sử dụng như thế nào để thuyết phục cử tri bỏ phiếu cho ứng cử viên ưa thích của họ trước cuộc bầu cử tổng thống vào tháng 11. Rủi ro sẽ đặc biệt nghiêm trọng trong các cuộc bầu cử có tính cạnh tranh chặt chẽ, trong đó sự chuyển dịch của một số lượng nhỏ cử tri từ bên này sang bên kia sẽ quyết định kết quả. Với chỉ hàng chục nghìn cử tri ở một số bang xung đột có khả năng quyết định kết quả cuộc bầu cử, một chiến dịch có chủ đích như thế này có thể gây ra thiệt hại không thể kể xiết. Và thêm sự xúc phạm đến thương tích, như trong trường hợp trên, nó lan truyền qua các cuộc gọi tự động thay vì mạng xã hội, việc theo dõi hoặc đo lường tác động thậm chí còn khó hơn.

Các công ty công nghệ đang làm gì về nó?

Cả YouTube và Facebook đều nói là đã chậm để đáp trả một số hành vi giả mạo nhằm mục đích ảnh hưởng đến cuộc bầu cử gần đây. Điều đó bất chấp luật mới của EU (Đạo luật dịch vụ kỹ thuật số) yêu cầu các công ty truyền thông xã hội phải kiểm soát các nỗ lực thao túng bầu cử.

Về phần mình, OpenAI cho biết họ sẽ triển khai thông tin xác thực kỹ thuật số của Liên minh chứng minh và xác thực nội dung (C2PA) cho các hình ảnh được tạo bởi DALL-E3. Công nghệ tạo hình mờ bằng mật mã – cũng đang được Meta và Google thử nghiệm – được thiết kế để khiến việc tạo ra hình ảnh giả mạo trở nên khó khăn hơn.

Tuy nhiên, đây vẫn chỉ là những bước đi nhỏ và còn có mối quan tâm chính đáng rằng phản ứng công nghệ đối với mối đe dọa sẽ là quá ít, quá muộn khi cơn sốt bầu cử đang bao trùm toàn cầu. Đặc biệt là khi lan truyền trong các mạng tương đối khép kín như nhóm WhatsApp hoặc cuộc gọi tự động, sẽ rất khó để nhanh chóng theo dõi và vạch trần bất kỳ âm thanh hoặc video giả mạo nào.

Lý thuyết về “thiên vị neo” gợi ý rằng thông tin đầu tiên con người nghe được sẽ in sâu vào tâm trí chúng ta, ngay cả khi nó hóa ra là sai sự thật. Nếu những người làm sâu sắc có thể thu hút được người bỏ phiếu trước, thì tất cả các cuộc đặt cược sẽ không xảy ra xem ai là người chiến thắng cuối cùng. Trong thời đại truyền thông xã hội và thông tin sai lệch được hỗ trợ bởi AI, câu ngạn ngữ của Jonathan Swift “sự giả dối bay đi và sự thật sẽ khập khiễng theo sau nó” mang một ý nghĩa hoàn toàn mới.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img