Logo Zephyrnet

Nền tảng “Nudify” do AI điều khiển: Đi sâu vào sự gia tăng đáng báo động và những tác động của nó

Ngày:

Những khám phá gần đây từ Graphika, một công ty chuyên nghiên cứu mạng xã hội, đã làm sáng tỏ một xu hướng đáng lo ngại: sự phát triển theo cấp số nhân trong việc sử dụng trí tuệ nhân tạo (AI) để cởi đồ kỹ thuật số cho người trong ảnh, chủ yếu tập trung vào phụ nữ. Chỉ trong tháng 24, hiện tượng này, đôi khi được gọi là dịch vụ “Nudify” hoặc “cởi quần áo”, đã báo cáo rằng hơn XNUMX triệu người dùng đã tham gia vào các nền tảng như vậy, cho thấy mối lo ngại đáng kể về quyền riêng tư và an toàn.

Bằng cách sử dụng thuật toán trí tuệ nhân tạo mạnh mẽ, các nền tảng này có thể thay thế quần áo trong ảnh bằng ảnh khỏa thân, điều này càng làm trầm trọng thêm hành vi quấy rối kỹ thuật số dựa trên giới tính. Việc thay đổi ảnh theo cách này mà không có sự đồng ý của chủ thể không chỉ gây ra thiệt hại đáng kể về mặt tinh thần và danh tiếng mà còn gây ra những lo ngại đáng kể về mặt đạo đức và pháp lý. Do các phương pháp tiếp thị mà các nền tảng này sử dụng, thường sử dụng mạng xã hội, nên số lượng liên kết quảng cáo được đăng trên các nền tảng như Reddit và các nền tảng khác đã tăng 2,400% kể từ đầu năm.

Một số vấn đề quan trọng đã được đưa ra ánh sáng do sự phổ biến của các ứng dụng Nudify. Những vấn đề này bao gồm xâm phạm quyền riêng tư, lo ngại về quyền tự chủ và duy trì các định kiến ​​gây tổn hại cũng như việc coi phụ nữ là khách quan. Những công cụ này góp phần thực hiện những điều chỉnh không được thực hiện với sự đồng ý của cá nhân, điều này có thể dẫn đến sự gia tăng số vụ quấy rối và tấn công tình dục. Ngoài các vấn đề về quyền riêng tư, công nghệ này còn có thể tạo ra các nội dung giả mạo và phương tiện tổng hợp sâu sắc, gây ra rủi ro đáng kể cho sự an toàn của người dùng khi họ trực tuyến và góp phần phổ biến thông tin sai lệch.

Cần phải có nỗ lực tập trung trên nhiều mặt trận khác nhau để chống lại mối nguy hiểm ngày càng mở rộng này. Quảng cáo cho các ứng dụng Nudify phải được xác định và xóa khỏi các trang truyền thông xã hội, đồng thời các chính phủ nên được khuyến khích khám phá việc thông qua các luật cấm sử dụng các ứng dụng đó. Ngoài ra, các viện nghiên cứu, doanh nghiệp công nghệ cần tạo ra các công cụ, phương pháp nhận diện và ngăn chặn việc tạo ra ảnh khỏa thân bằng trí tuệ nhân tạo.

Các ứng dụng như DeepSukebe, hứa hẹn rằng nó có thể “tiết lộ sự thật ẩn giấu dưới quần áo”, đặc biệt có vấn đề vì chúng cho phép sản xuất các bức ảnh khỏa thân được hiển thị mà không có sự đồng ý của người dùng và đã trở thành công cụ để quấy rối và bóc lột. . Bất chấp những cân nhắc về mặt đạo đức, vẫn có nhu cầu rõ ràng về những công cụ như vậy, thể hiện qua lượng tìm kiếm đáng kể hàng tháng đối với các cụm từ tìm kiếm được liên kết với chủ đề.

Theo một nghiên cứu được Graphika công bố vào tháng 24 năm 34, hơn 2022 triệu người dùng đã xem tập hợp XNUMX trang web và ứng dụng cởi quần áo vào tháng XNUMX. Thông tin này cung cấp cái nhìn sâu sắc về mức độ nghiêm trọng của vấn đề. Mặc dù thực tế là các công ty như TikTok và Meta Platforms Inc. đã thực hiện các biện pháp để giải quyết vấn đề, nhưng vẫn cần có các sáng kiến ​​​​toàn diện hơn trên toàn ngành để chống lại sự phát triển của quảng cáo do AI tạo ra. nội dung khiêu dâm là deepfakeCó một

Nguồn hình ảnh: Shutterstock

tại chỗ_img

Tin tức mới nhất

tại chỗ_img