Logo Zephyrnet

Deepfake CFO lừa đảo nhân viên 25.6 triệu USD trong vụ lừa đảo AI ở Hồng Kông

Ngày:

Một nhân viên tài chính tại một công ty đa quốc gia có trụ sở tại Hồng Kông được cho là đã mất 200 triệu đô la Hồng Kông (25.6 triệu đô la) tiền của công ty sau khi những kẻ lừa đảo sử dụng công nghệ AI deepfake để mạo danh giám đốc tài chính của công ty trong một cuộc gọi hội nghị video.

Cảnh sát cho biết nhân viên này đã nhận được một tin nhắn vào tháng trước từ một người tự xưng là giám đốc tài chính của công ty có trụ sở tại London. Người hóa ra là một scammer, yêu cầu nhân viên này tham gia cuộc gọi video “được mã hóa” với bốn đến sáu nhân viên khác.

Sau sự do dự ban đầu, nhân viên này đã bị thuyết phục sau cuộc gọi điện video vì những người tham dự có vẻ ngoài và giọng nói giống như những người anh biết ở nơi làm việc, Tiêu chuẩn Hồng Kông báo cáo.

Ngoài ra đọc: Người đàn ông mất 600,000 đô la cho kẻ lừa đảo bằng cách sử dụng AI hoán đổi khuôn mặt

Lừa đảo một chuyên gia tài chính

Giám đốc tài chính giả đã không lãng phí thời gian. Anh ta nhanh chóng đưa ra những lời kêu gọi khẩn cấp để tạo điều kiện thuận lợi cho việc chuyển tiền. Nạn nhân tin rằng những người khác trong cuộc gọi video đều là thật và tuân thủ hướng dẫn, cuối cùng thực hiện 15 lần chuyển khoản vào XNUMX tài khoản ngân hàng địa phương.

Tổng cộng, người công nhân này đã đồng ý chuyển 200 triệu đô la Hồng Kông - khoảng 25.6 triệu đô la Mỹ vào thời điểm đó. Nhân viên này phát hiện ra mình bị lừa một tuần sau đó sau khi kiểm tra với trụ sở chính của công ty. Anh ta đã báo cáo sự việc với cảnh sát.

“(Trong) cuộc họp video nhiều người, hóa ra tất cả những người [anh ấy nhìn thấy] đều là giả,” Giám đốc cảnh sát cấp cao Hong Kong Baron Chan Shun-ching cho biết. Viên chức cảnh sát không tiết lộ tên hoặc thông tin chi tiết về công ty hoặc công nhân.

Theo Chan, các video được tạo bằng AI và được thực hiện từ các hội nghị trực tuyến thực sự trước đây. Để tăng thêm chiều sâu và độ tin cậy cho vụ lừa đảo, những kẻ lừa đảo đã sử dụng WhatsApp, email và hội nghị video trực tiếp với các nhân viên Hồng Kông.

“Tôi tin rằng kẻ lừa đảo đã tải xuống video trước và sau đó sử dụng trí tuệ nhân tạo để thêm giọng nói giả để sử dụng trong hội nghị truyền hình”, Chan nói và trong một báo cáo khác, ông nói thêm:

“Họ đã sử dụng công nghệ deepfake để bắt chước giọng nói của mục tiêu đang đọc từ một tập lệnh.”

Cảnh sát cho biết các trường hợp sử dụng công nghệ deepfake AI để lừa tiền của mọi người đang gia tăng ở Hồng Kông. Chan cho biết, từ tháng 2023 đến tháng 90 năm 54, XNUMX thẻ căn cước địa phương bị đánh cắp đã được sử dụng để thực hiện XNUMX đơn xin vay vốn và XNUMX lần đăng ký tài khoản ngân hàng. báo cáo của CNN.

Theo cảnh sát Hồng Kông, những kẻ lừa đảo đã sử dụng AI sâu sắc ít nhất 20 lần để đánh lừa phần mềm nhận dạng khuôn mặt “bằng cách bắt chước những người có hình trên chứng minh thư”. Cảnh sát đã bắt giữ sáu người liên quan đến những vụ lừa đảo như vậy.

Deepfake CFO lừa đảo nhân viên 25.6 triệu USD trong vụ lừa đảo AI ở Hồng Kông

Deepfake CFO lừa đảo nhân viên 25.6 triệu USD trong vụ lừa đảo AI ở Hồng Kông

AI deepfake khiến các nhà lãnh đạo toàn cầu lo lắng

Theo các chuyên gia, khi AI trở nên tiên tiến hơn, việc phân biệt danh tính thật và giả sẽ ngày càng khó khăn hơn. Công nghệ này có thể làm suy yếu tính bảo mật và quyền riêng tư của danh tính kỹ thuật số.

Ví dụ: nó có thể được sử dụng để tạo các hình ảnh hoặc video deepfake, thực tế nhưng giả mạo dùng để mạo danh người khác, bao gồm cả giọng nói của họ, như trường hợp nổi bật ở Hồng Kông.

Các cơ quan quản lý trên toàn thế giới đã bắt đầu chú ý hơn đến sự nguy hiểm của AI kể từ khi OpenAI ra mắt chatbot lan truyền ChatGPT vào tháng 2022.

Ở Mỹ, thượng nghị sĩ giới thiệu một dự luật lưỡng đảng vào cuối tháng trước sẽ cho phép các nạn nhân được miêu tả trong các video khiêu dâm sâu do AI tạo ra không có sự đồng thuận kiện những người tạo ra video.

Quyết định này được đưa ra sau khi những hình ảnh khiêu dâm do AI tạo ra về Taylor Swift đã lan truyền trên mạng xã hội, bao gồm cả trên X, nơi hàng chục triệu người đã xem chúng trước khi nền tảng trước đây gọi là Twitter chặn các tìm kiếm về ca sĩ nhạc pop.

Tại Trung Quốc, Cục Quản lý Không gian mạng của nước này năm ngoái đã ban hành các quy định mới cấm sử dụng nội dung do AI tạo ra để truyền bá “tin tức giả”. Các quy định cũng yêu cầu các nhà cung cấp công nghệ deepfake phải dán nhãn rõ ràng cho sản phẩm của họ là sản phẩm tổng hợp.

Tại Ấn Độ, Bộ trưởng CNTT Rajeev Chandrasekhar gần đây đã cảnh báo rằng các công ty truyền thông xã hội sẽ phải chịu trách nhiệm về các bài viết sâu về AI do mọi người đăng trên nền tảng của họ. Điều này xuất hiện sau một video bán khỏa thân do AI tạo ra của nam diễn viên Ấn Độ Rashmika Mandanna Xuất hiện trực tuyến vào tháng 11.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img