leftcenterrightdel
 Phụ nữ Hàn Quốc yêu cầu chính phủ cứng rắn hơn trong việc giải quyết vấn nạn khiêu dâm deepfake.

Đi tù từ 3 năm trở lên

Ngay sau khi quốc hội Hàn Quốc thông qua luật hình sự hóa các hành vi sở hữu hoặc xem hình ảnh và video deepfake có nội dung khiêu dâm, các cuộc biểu tình vẫn diễn ra khắp Hàn Quốc.

Các nhà hoạt động cho biết họ muốn có những biện pháp cứng rắn hơn, công lý cho các nạn nhân và sự chịu trách nhiệm từ chính phủ để giải quyết nạn tội phạm tình dục đáng báo động đang hoành hành trên cả nước.

Ngày 26/9, Quốc hội Hàn Quốc đã thông qua Dự luật trừng phạt những người sở hữu, mua, lưu hoặc xem các tài liệu khiêu dâm deepfake và các video bịa đặt khác với mức án lên tới 3 năm tù hoặc tiền phạt lên tới 30 triệu won (23.000 USD).

Luật mới cũng sẽ tăng mức án tối đa cho hành vi tạo video deepfake có nội dung khiêu dâm.

Dự luật này hiện chỉ cần chờ sự chấp thuận của Tổng thống Yoon Suk Yeol để ký thành luật.

Tuy nhiên, điều này vẫn chưa đáp ứng được yêu cầu của các nhà hoạt động. Họ cho rằng luật hiện hành không đủ để chống lại tội phạm tình dục và các nhà hoạch định chính sách cần phải hành động nhiều hơn với hệ thống pháp luật để đưa thủ phạm ra trước công lý và ngăn chặn những hành vi như vậy.

Vấn đề này thậm chí còn cấp bách hơn vì phần lớn thủ phạm và nạn nhân đều là thanh thiếu niên.

Hầu hết tội phạm và nạn nhân là thanh thiếu niên

Theo hãng tin Yonhap, tính đến ngày 20/9, hơn 800 báo cáo của cảnh sát trên toàn quốc trong năm nay về các tội phạm tình dục liên quan đến deepfake.

Cảnh sát đã bắt giữ 387 nghi phạm, trong đó hơn 80% là thanh thiếu niên.

Khoảng 60 % nạn nhân liên quan đến các vụ án được cảnh sát điều tra trong 3 năm qua cũng là trẻ vị thành niên.

Đầu tháng này, cảnh sát Hàn Quốc cho biết họ đã mở cuộc điều tra xem liệu nền tảng nhắn tin mã hóa Telegram có tiếp tay cho việc phát tán nội dung khiêu dâm deepfake, bao gồm cả nội dung khiêu dâm dành cho trẻ vị thành niên.

Các kênh Telegram – được cho là có hơn 220.000 người tham gia – đã được sử dụng để chia sẻ những tài liệu này.

Nội dung khiêu dâm Deepfake bao gồm nội dung khiêu dâm trong đó khuôn mặt của cá nhân được chồng lên các hình ảnh hoặc video khiêu dâm khác bằng trí tuệ nhân tạo.

Những kẻ thực hiện tội phạm deepfake được cho là đã sử dụng các nền tảng mạng xã hội như Instagram để lưu ảnh của nạn nhân, sau đó dùng những bức ảnh này để tạo ra nội dung khiêu dâm giả.

Phụ nữ sống trong sợ hãi

Các phương tiện truyền thông địa phương đưa tin một số nội dung nhạy cảm đã được tạo ra, xem và chia sẻ bởi những người biết nạn nhân và điều này đã tạo nên bầu không khí sợ hãi và mất lòng tin giữa những phụ nữ Hàn Quốc tại trường học và nơi làm việc của họ.

Kể từ khi cuộc khủng hoảng khiêu dâm deepfake nổ ra, nhiều phụ nữ đã vội vàng xóa ảnh và video của mình khỏi mạng xã hội.

Choi Ji-hyeon là một trong những người biểu tình cho biết cô tham gia đã biểu tình một lần một tuần tại Seoul kể từ tháng trước, nói rằng cô muốn tiếng nói của các nữ sinh viên đại học được lắng nghe.

Choi - người đứng đầu câu lạc bộ nhân quyền tại Đại học khu vực Seoul, cho biết: “Chính phủ cần phải vào cuộc và thực hiện các biện pháp để giải quyết vấn đề này ở cấp quốc gia”.

“Nhưng giờ đây chúng tôi - những sinh viên nữ - phải tự mình tìm ra điều này. Thực tế là chúng tôi không có lựa chọn nào khác ngoài việc nghi ngờ những người bạn mà chúng tôi từng ăn uống và đi chơi cùng".

Choi nói thêm rằng một số bạn cùng lớp của cô thậm chí còn vào các phòng chat khiêu dâm deepfake trên Telegram để đảm bảo rằng họ không phải là nạn nhân. “Tôi bây giờ sợ mạng xã hội hơn vì khả năng bị đánh cắp thông tin cá nhân và bị lợi dụng. Chúng ta cần giáo dục mọi người về luật pháp”, một người biểu tình khác cho biết.

Nỗ lực ngăn chặn làm giả hình ảnh khiêu dâm

Giữa sự phẫn nộ của công chúng và yêu cầu các biện pháp mạnh mẽ hơn, Tổng thống Hàn Quốc Yoon đã kêu gọi điều tra kỹ lưỡng các tội phạm tình dục kỹ thuật số.

Lucas Lee, giám đốc công ty khởi nghiệp Deepbrain AI, cho biết công ty của ông đã ra mắt hệ thống phát hiện deepfake vào tháng 3, được phát triển với sự hợp tác của Cơ quan Cảnh sát Quốc gia Hàn Quốc để giúp chống lại những loại tội phạm ở nước này.

“Với sự tiến bộ của công nghệ… việc tạo ra những nội dung deepfaek đã trở nên dễ dàng hơn và hiện nay có rất nhiều hình ảnh bất hợp pháp. Mọi người ngày càng khó phân biệt video hoặc hình ảnh bằng mắt thường. Vì vậy, chúng tôi đang phát triển và bán các giải pháp có thể phát hiện chúng là thật hay giả.”

Quá trình này, trong đó các kỹ thuật chính bao gồm phát hiện các thủ thuật nhép môi và hoán đổi khuôn mặt, chỉ mất vài phút.

Bên cạnh việc thực thi pháp luật, các công ty - bao gồm cả các công ty giải trí - cũng đang chuyển sang sử dụng các công nghệ tương tự để phát hiện video và hình ảnh giả mạo, sau các trường hợp nữ diễn viên và ca sĩ trở thành nạn nhân của những tội ác như vậy.

Tổ chức Theo dõi Nhân quyền cho biết bạo lực giới tính trực tuyến là một vấn đề phổ biến ở Hàn Quốc vì nước này không coi những tội ác này là nghiêm trọng.

Nhóm vận động này đã kêu gọi chính phủ cung cấp chương trình giáo dục giới tính toàn diện cho trẻ em và người lớn, đồng thời thúc đẩy bình đẳng giới trong cả nước.

Theo phụ nữ TPHCM