Bị lừa mua ảnh khiêu dâm tạo từ AI

Estimated read time 6 min read
Claudia có nhiều fan nhờ đôi mắt to xanh lam, đường nét thanh tú. Cô nói sẵn sàng bán ảnh khiêu dâm (khỏa thân) của mình cho bất kỳ ai nhắn tin.

“Hôm nay tôi thấy mình thật đẹp”, Claudia, 19 tuổi, viết trên Reddit và thu hút hàng trăm bình luận. Tuy nhiên, Claudia chưa từng tồn tại trong đời thực mà chỉ là sản phẩm do AI tạo ra.

Người phụ nữ xinh đẹp với những đặc điểm hoàn hảo này là “đứa con tinh thần” của hai sinh viên ngành khoa học máy tính. Theo Rolling Stone, họ tạo tài khoản trên với mục đích giải trí nhưng cũng kiếm được 100 USD bằng cách bán ảnh khỏa thân của Claudia.

Bị lừa mua ảnh khiêu dâm tạo từ AI

“Có thể nói tài khoản là một thử nghiệm để xem liệu có thể đánh lừa mọi người bằng AI hay không”, hai sinh viên cho hay. “Thành thật mà nói, chúng tôi không nghĩ nó sẽ thu hút sự quan tâm như vậy”.

Claudia được tạo ra bởi Stable Diffusion, công cụ AI có chức năng tạo ảnh chân thực đến kinh ngạc chỉ bằng vài yêu cầu văn bản đơn giản. Sau khi bị phát hiện, tài khoản Claudia bị phản ứng dữ dội từ người dùng.

“Tôi thấy mình bị lừa”, người dùng Reddit legalbeagle1966 nói với Washington Post sau khi phát hiện sự thật. Chỉ một tuần trước đó, người này còn nhận xét Claudia gợi cảm và hoàn hảo.

Tuy nhiên, hai tác giả từ chối trách nhiệm vì sản phẩm AI không vi phạm quy tắc nền tảng. “Tôi đã cảnh báo trước người mua. Nếu mọi người nghĩ nó có thật và muốn làm điều gì đó bên ngoài Reddit, đó là do họ”, nhóm đứng sau Claudia nói.

Bị lừa mua ảnh khiêu dâm tạo từ AI
Hình ảnh Claudia đăng trên Reddit.

Claudia chỉ là một ví dụ về những nội dung người lớn được tạo bằng công nghệ AI. Stability AI, công ty khởi nghiệp ở London, cấm sử dụng Stable Diffusion để tạo ảnh tục tĩu, khiêu dâm. Tuy vậy, họ từng cho phép người dùng tải ứng dụng về máy tính nên không thể kiểm soát triệt để vấn đề.

Ẩn họa từ ảnh khiêu dâm AI

Trên một số diễn đàn, các thành viên thậm chí thảo luận về cách sử dụng Stable Diffusion tạo ảnh khỏa thân của những phụ nữ ngoài đời thực mà không có sự đồng ý của họ. Trong đó, một số người hướng dẫn cách dùng AI xóa bỏ quần áo của các cô gái cho mục đích độc hại.

Ví dụ, công cụ Civi…, được quảng cáo là “mô hình Stable Diffusion cho người biến thái”, có thể tạo ảnh khiêu dâm từ ảnh thật và đạt 77.000 lượt tải xuống trong ba tháng qua.

Bị lừa mua ảnh khiêu dâm tạo từ AI
Bức hình 3 cô gái sexy được tạo ra bởi AI

Hoạt động này còn có tên gọi khác là deepfake, tức dùng AI giả giọng nói, ghép khuôn mặt… của người khác mà không được phép. Theo thống kê của Sensity, một công ty chuyên về AI, gần 96% nội dung deepfake là khiêu dâm và hầu hết trong số đó sử dụng khuôn mặt phụ nữ trái phép. Còn theo NBC News, người dùng có thể mua hình ảnh khiêu dâm deepfake của “những cô gái cá tính” với giá 5 USD.

Dù một số nền tảng cấm deepfake, những hình ảnh như Claudia không được dán nhãn AI. Vấn đề xác thực cũng khó khăn hơn khi các công cụ ngày càng tinh xảo. Theo Rolling Stone, những người dựng phim khiêu dâm AI cho rằng sự phổ biến của người mẫu như Claudia trong tương lai không còn là giả thuyết, mà trở thành điều tất yếu.

“AI khiêu dâm trở nên phổ biến hơn. Nhiều tài khoản về chủ đề này sẽ tiếp tục xuất hiện”, nhóm tạo ra Claudia cho biết.

(VnExpress)

1 Comment

Add yours

+ Leave a Comment