Một mạng lưới phát tán hình ảnh khiêu dâm deepfake qua Telegram bị phơi bày cho thấy Hàn Quốc đã trở thành trung tâm của vấn đề toàn cầu đang nổi lên này. Tổng thống Hàn Quốc Yoon Suk-yeol cảnh báo “bất kỳ ai cũng có thể là nạn nhân”. Hàn Quốc đã trở thành quốc gia hiếm hoi khởi kiện nền tảng truyền thông Telegram ở cấp quốc gia.

r shutterstock 2418906349
(Ảnh minh họa: MR.RAWIN TANPIN / Shutterstock)

Theo Wall Street Journal, một cuộc khủng hoảng ảnh khỏa thân giả mạo bằng AI quy mô lớn đã nổ ra ở Hàn Quốc. Theo báo cáo tại địa phương, nạn nhân bao gồm giáo viên, sĩ quan quân đội, sinh viên đại học và học sinh tiểu học. Trong các cuộc trò chuyện nhóm phức tạp trên Telegram, những người dùng ẩn danh đã gửi một số bức ảnh của các cô gái và phụ nữ Hàn Quốc mà không có sự cho phép của những người liên quan. Những bức ảnh này đã được biến thành hình ảnh và video khiêu dâm và được hàng trăm ngàn người xem.

Chính quyền Hàn Quốc đã mở một cuộc điều tra về hình ảnh khiêu dâm giả vào thứ Tư tuần trước (ngày 28/8) sau khi một mạng lưới rộng lớn bị vạch trần, có hàng trăm nạn nhân, nhiều người trong số họ là trẻ vị thành niên. Những phát hiện này phản ánh quy mô của vấn đề mà Hàn Quốc đang phải đối mặt, một số nhà nghiên cứu cho rằng các video khiêu dâm được gọi là “deepfake” đang lưu hành trên toàn cầu có khoảng một nửa là đến từ Hàn Quốc.

Ở nhiều quốc gia, bao gồm cả Mỹ, số lượng ảnh khỏa thân giả do AI tạo ra nhằm vào phụ nữ và trẻ em gái ngày càng gia tăng.

Đoạn video ông Obama chê bai ông Trump là “ngốc” đã lan truyền khắp thế giới, những bộ phim người lớn “do Emma Watson đóng chính” đang lan truyền trên Internet… Tuy nhiên, những video này không có thật, chúng được thực hiện bằng một phương pháp gọi là Công nghệ trí tuệ nhân tạo “deepfake” để thay đổi khuôn mặt. Một cuộc điều tra của phóng viên Jason Bellini của WSJ cho thấy việc ứng dụng công nghệ thay đổi khuôn mặt đã mở rộng từ những người nổi tiếng và chính trị gia đến người dân bình thường. Ngoài mục đích giải trí, nó có thể gây tổn hại thực sự đến cuộc sống của người dân và thậm chí gây ra hậu quả chính trị.

Các quan chức địa phương ở Hàn Quốc cho rằng các biện pháp bảo vệ hiện tại của Hàn Quốc chưa đủ hoàn thiện để loại bỏ mối đe dọa từ nội dung khiêu dâm do AI tạo ra, hầu hết đều do thanh thiếu niên hoặc người trẻ tuổi hơn sản xuất. Bộ Giáo dục Hàn Quốc đang xem xét mức hình phạt tối đa đối với học sinh cấp hai hoặc trẻ 10 tuổi vi phạm. Các nhà lập pháp đang tìm cách khắc phục những lỗ hổng trong luật, chẳng hạn như mở rộng các hình phạt hiện tại đối với những người cố tình truyền bá nội dung bất hợp pháp.

Tổng thống Hàn Quốc Yoon Suk-yeol, người từng giữ chức công tố viên, phát biểu tại cuộc họp nội các hôm thứ Ba tuần trước và chỉ biết: “Bất kỳ ai cũng có thể là nạn nhân. Một số người có thể nghĩ rằng các video deepfake chỉ là những trò lừa bịp đơn giản, nhưng rõ ràng chúng là những hành vi tội phạm sử dụng công nghệ dưới vỏ bọc ẩn danh.”

Quy mô và số lượng nạn nhân vẫn đang được điều tra. Nhiều nhóm Telegram được tổ chức theo tên trường hoặc khu vực, cho phép người dùng dễ dàng xác định những người quen chung và tạo ra những bức ảnh khỏa thân giả có thể chia sẻ. Theo các quan chức và nhà hoạt động, để tham gia các nhóm, một số người dùng được yêu cầu cung cấp ảnh của một phụ nữ, thường được lấy từ tài khoản mạng xã hội của một bạn cùng lớp. Các nhóm Telegram này giao tiếp gần như hoàn toàn bằng tiếng Hàn.

Vào đầu tháng này, sau khi một cuộc điều tra của cảnh sát khiến một nhóm Telegram tập trung vào một trường đại học được đưa vào tầm chú ý của công chúng, sự quan tâm của công chúng đã tăng vọt. Nhà chức trách cho biết, nhóm này hoạt động từ năm 2020 và có khoảng 1.200 thành viên, không chỉ chia sẻ hình ảnh khiêu dâm do máy tính tạo ra mà còn chia sẻ các thông tin cá nhân khác, chẳng hạn như số điện thoại, địa chỉ và số ID sinh viên của những người liên quan. Theo báo cáo, hình ảnh khiêu dâm giả của ít nhất 30 sinh viên hiện tại và cựu sinh viên đã được chia sẻ trong nhóm.

Theo thống kê trực tuyến do các tình nguyện viên tổng hợp qua các nhóm trò chuyện nhóm, khoảng 500 trường học, từ đại học đến tiểu học, có thể đã bị ảnh hưởng. Trang web đăng tải danh sách của trường đã thu hút khoảng 3 triệu lượt xem trang kể từ khi nó đi vào hoạt động hôm thứ Ba.

Cuộc trấn áp các hình ảnh khiêu dâm giả mạo được lưu hành trên Telegram diễn ra vài ngày sau khi chính quyền Pháp bắt giữ người sáng lập và CEO của ứng dụng nhắn tin này, ông Pavel Durov. Các công tố viên Pháp cho biết vụ bắt giữ ông Durov có liên quan đến cuộc điều tra xem liệu Telegram có tạo điều kiện cho tội phạm mạng hay không, bao gồm cả việc trao đổi nội dung khiêu dâm trẻ em.

WSJ cho biết, khi được hỏi về cuộc điều tra của Hàn Quốc, đại diện của Telegram cho biết công ty xóa hàng triệu nội dung có hại khỏi nền tảng của mình mỗi ngày dựa trên các kiểm tra thẩm duyệt, công cụ AI và báo cáo của người dùng.

Theo báo cáo năm 2023 từ công ty phòng chống trộm danh tính Security Hero, các nữ ca sĩ và diễn viên Hàn Quốc chiếm khoảng một nửa số video khiêu dâm deepfake được đăng trực tuyến. Báo cáo đã phân tích khoảng 100.000 video từ hơn 100 trang web.

Các nhà hoạt động cho biết, nguy cơ hình ảnh khiêu dâm của phụ nữ Hàn Quốc bị đăng lên mạng mà không có sự đồng ý của những người liên quan đã tăng lên trong những năm qua. Quan chức Hàn Quốc sẽ lục soát các nhà vệ sinh công cộng để xem có camera giấu kín hay không. Một số người nổi tiếng trên mạng đã bị kiện vì phát tán video camera ẩn về các lần quan hệ tình dục của họ. Một băng đảng bóc lột tình dục Hàn Quốc đã sử dụng Telegram để ép buộc phụ nữ thực hiện hàng ngàn video khiêu dâm.

Nhưng bà Song Ran-hee, đại diện Đường dây nóng Phụ nữ Hàn Quốc, cho biết rằng trước làn sóng phản đối kịch liệt của dư luận những ngày gần đây, cảnh sát Hàn Quốc cho rằng rất khó điều tra các trường hợp chụp ảnh khỏa thân giả với lý do máy chủ của Telegram được đặt ở nước ngoài. Bà nói rằng “Thông báo hành động trấn áp đến quá muộn”. Đường dây nóng Phụ nữ Hàn Quốc, một tổ chức phi lợi nhuận chuyên hỗ trợ những phụ nữ từng bị xâm hại bạo lực.

Theo dữ liệu do cơ quan quản lý truyền thông Hàn Quốc cung cấp, tính đến tháng 7 năm nay, hơn 6.000 người Hàn Quốc đã yêu cầu xóa các hình ảnh khiêu dâm sai sự thật được sản xuất mà không có sự đồng ý của họ. Con số này năm ngoái là gần 7.000.

Theo Cơ quan Cảnh sát Quốc gia Hàn Quốc, khoảng 300 người đã bị buộc tội sản xuất và phát tán ảnh khỏa thân giả kể từ đầu năm 2023, khoảng 70% trong số đó là thanh thiếu niên.

Một nghiên cứu năm 2019 của Sensity AI, công ty chuyên theo dõi các tác phẩm deepfake, cho thấy 96% hình ảnh deepfake là khiêu dâm và 99% ảnh là phụ nữ.

Google có các chính sách nhằm ngăn chặn hình ảnh khiêu dâm không được chủ nhân bức ảnh đồng ý hiển thị trong kết quả tìm kiếm. Nhưng các biện pháp bảo vệ chống lại hành vi giả mạo kém hiệu quả hơn.

Ngay cả khi không tìm kiếm cụ thể nội dung do AI tạo ra, các hình ảnh khiêu dâm deepfake và các công cụ sản xuất vẫn xuất hiện nổi bật trong các công cụ tìm kiếm của Google.

Trí Đạt (t/h)