Logo Zephyrnet

CFO Deepfake lừa biz Hong Kong 25 triệu USD

Ngày:

Một chuyên gia tài chính đa quốc gia có trụ sở tại Hồng Kông được cho là đã bị lừa mất 25 triệu đô la (200 triệu đô la Hồng Kông) tiền của công ty khi những kẻ lừa đảo tạo ra một bản deepfake về giám đốc tài chính có trụ sở tại London của anh ta trong một cuộc gọi hội nghị video.

Người Hồng Kông đã tham gia một vidchat trong đó CFO của anh ấy xuất hiện – nhưng có vẻ hơi lạc lõng. Nhiều đến mức ban đầu nhân viên còn nghi ngờ. Nhưng sự lo lắng của anh đã được xoa dịu khi những đồng nghiệp khác mà anh nhận ra dường như cũng tham gia vào cuộc gọi, cảnh sát Hồng Kông cho biết. báo cáo giải thích.

Giám đốc tài chính giả mạo ngày càng đưa ra những lời yêu cầu khẩn cấp để thực hiện chuyển tiền và nạn nhân đã tuân thủ các hướng dẫn được đưa ra trong cuộc gọi – cuối cùng thực hiện 15 lần chuyển tiền vào XNUMX tài khoản ngân hàng địa phương.

Các video do AI tạo ra được cho là được tạo từ các hội nghị trực tuyến chính hãng trước đây. Để tăng thêm chiều sâu và độ tin cậy cho vụ lừa đảo, thủ phạm đã sử dụng WhatsApp, email và các cuộc họp video trực tiếp với các nhân viên Hồng Kông.

Giám đốc cảnh sát thành phố, Nam tước Chan Shun-ching, cho biết: “Tôi tin rằng kẻ lừa đảo đã tải xuống video trước và sau đó sử dụng trí tuệ nhân tạo để thêm giọng nói giả để sử dụng trong cuộc họp video”.

Chính xác thì điều gì khác đã xảy ra trong cuộc gọi định mệnh vẫn còn đang bị tranh cãi. Một số báo cáo cho thấy chỉ một người tham gia cuộc gọi là có thật, trong khi những báo cáo khác cho rằng nhiều người tham gia là con người.

Tất cả đều đồng ý rằng con người do AI tạo ra đã xuất hiện và thật đáng buồn là chuyên gia tài chính giấu tên đã bị lừa. Sự thật đó chỉ được nạn nhân phát hiện sau khi liên lạc với trụ sở chính của tập đoàn (cũng giấu tên).

Phương tiện truyền thông địa phương Tiêu chuẩn tuyên bố vụ lừa đảo hội nghị video deepfake đầu tiên ở Hồng Kông.

Trong một thời gian đơn giản hơn, hồn nhiên hơn – khoảng một năm rưỡi trước – nhà nghiên cứu John Shier của Sophos nói với Reg deepfake không phải là một mối đe dọa lớn.

Theo Shier, những kẻ lừa đảo thích các cuộc tấn công đơn giản và rẻ tiền hơn, giống như lừa đảo kiểu cũ.

Cho dù được thúc đẩy bởi sự hấp dẫn của các ưu đãi tài chính lớn hơn hay bị ảnh hưởng bởi những tiến bộ đáng kể gần đây trong công nghệ AI tạo điều kiện thuận lợi cho việc tạo ra chúng, có vẻ như kỷ nguyên không quan tâm đến các tác phẩm sâu đang nhanh chóng biến mất.

Mặc dù vụ lừa đảo CFO giả mạo sâu có thể là vụ lừa đảo đầu tiên được báo cáo ở Hồng Kông sử dụng hội nghị truyền hình, nhưng đây không phải là vụ lừa đảo duy nhất sử dụng công nghệ này. Dựa theo CNNCảnh sát Hồng Kông tiết lộ trong một cuộc họp báo hôm thứ Sáu rằng họ đã thực hiện sáu vụ bắt giữ liên quan đến các vụ lừa đảo deepfake khác và rằng các deepfake AI đã được sử dụng ít nhất 20 lần để đánh lừa phần mềm nhận dạng khuôn mặt.

Vấn đề deepfake cũng mang tính toàn cầu. Thượng nghị sĩ Mỹ tuần trước giới thiệu một dự luật lưỡng đảng cho phép các nạn nhân xuất hiện trong các tác phẩm giả mạo khiêu dâm do AI tạo ra không có sự đồng thuận kiện những người tạo ra video.

Động thái đó được đưa ra sau những hình ảnh khiêu dâm do AI tạo ra của Taylor Swift sinh sôi nảy nở trên khắp các nền tảng truyền thông xã hội – bao gồm cả trên X/Twitter, nơi họ đã thu hút được hàng chục triệu lượt xem trước khi trang web thuộc sở hữu của Musk chặn các lượt tìm kiếm biểu tượng nhạc pop.

Ấn Độ đã có các vấn đề tương tự khi một video ít đồ họa hơn - nhưng vẫn vi phạm cá nhân và nghề nghiệp - do AI tạo ra của nam diễn viên Ấn Độ Rashmika Mandanna xuất hiện trực tuyến vào tháng 11.

Bộ trưởng CNTT Ấn Độ Rajeev Chandrasekhar báo cáo đã cảnh báo vào cuối tháng 1 rằng các nền tảng truyền thông xã hội sẽ phải chịu trách nhiệm về những nội dung deepfake mà người dùng của họ đăng. ®

tại chỗ_img

Tin tức mới nhất

tại chỗ_img