Trung tâm Quốc gia về Trẻ em Mất tích và Bị Khai thác (NCMEC) cho biết, chỉ trong chín tháng từ tháng 1 đến tháng 9-2025, đường dây CyberTipline đã nhận hơn một triệu báo cáo liên quan đến hình ảnh lạm dụng tình dục trẻ em do trí tuệ nhân tạo (AI) tạo ra – một con số cho thấy loại tội phạm này đang bùng lên rất nhanh và rất rộng.
Giới điều tra và công tố ghi nhận riêng sáu tháng đầu năm 2025, số báo cáo về khai thác trẻ em gắn với AI đã tăng hơn 600% so với tổng hai năm 2023 và 2024, trong khi các cơ quan bảo vệ pháp luật lẫn nhà làm luật đều thừa nhận đang vất vả đuổi theo một kỹ thuật mỗi năm một tinh vi hơn.
Giới điều tra và công tố ghi nhận riêng sáu tháng đầu năm 2025, số báo cáo về khai thác trẻ em gắn với AI đã tăng hơn 600% so với tổng hai năm 2023 và 2024, trong khi các cơ quan bảo vệ pháp luật lẫn nhà làm luật đều thừa nhận đang vất vả đuổi theo một kỹ thuật mỗi năm một tinh vi hơn.
Các loại nội dung này được tạo ra bằng nhiều cách khác nhau: có khi là ảnh sinh hoạt bình thường của trẻ em – chụp ở trường, ở nơi công cộng hay đăng trên mạng – bị đưa vào hệ thống để “biến dạng” thành hình khiêu dâm; có khi là những cảnh xâm hại hoàn toàn do máy vẽ, không dựa trên nét mặt hay thân thể một đứa trẻ thật nào, nhưng nhìn qua lại không khác gì ảnh chụp người thật.
Trong các vụ án gần đây, điều tra viên cho biết thường thấy hình ảnh do AI sinh ra trộn lẫn với các loại hình ảnh ấu dâm trước đây, vì người sưu tầm chỉ muốn chất đầy bộ sưu tập, bất kể hình đó là thật hay giả.
Trong các vụ án gần đây, điều tra viên cho biết thường thấy hình ảnh do AI sinh ra trộn lẫn với các loại hình ảnh ấu dâm trước đây, vì người sưu tầm chỉ muốn chất đầy bộ sưu tập, bất kể hình đó là thật hay giả.
Nhiều bị cáo bị cáo buộc đã lợi dụng các dịch vụ trực tuyến nhỏ chuyên “lột đồ” hoặc ghép mặt, cùng với những mô hình hình ảnh nguồn mở được tải về máy cá nhân, để tạo ra kho hình ảnh trẻ em bị xâm hại.
Có người dùng chế độ “không giới hạn” để yêu cầu hệ thống vẽ bé gái 10–11 tuổi khỏa thân; có trường hợp một bác sĩ tâm thần chuyên điều trị trẻ em đã dùng AI sửa ảnh học sinh trong dịp khai giảng, dạ hội, biến thành hình ảnh khiêu dâm, đồng thời bí mật quay phim trẻ em ngoài đời, và sau đó bị kết án nhiều chục năm tù.
Có người dùng chế độ “không giới hạn” để yêu cầu hệ thống vẽ bé gái 10–11 tuổi khỏa thân; có trường hợp một bác sĩ tâm thần chuyên điều trị trẻ em đã dùng AI sửa ảnh học sinh trong dịp khai giảng, dạ hội, biến thành hình ảnh khiêu dâm, đồng thời bí mật quay phim trẻ em ngoài đời, và sau đó bị kết án nhiều chục năm tù.
Mặt khác, hồ sơ các vụ án cho thấy số vụ bị đưa ra tòa còn rất ít so với số báo cáo gửi về các trung tâm tiếp nhận; vướng mắc lớn là cách áp dụng luật hiện hành khi vụ việc chỉ liên quan đến hình ảnh “ảo”, không có nạn nhân bằng xương bằng thịt.
Một số vụ phải xử theo các điều khoản về văn hóa phẩm đồi trụy, thay vì các điều khoản chuyên về lạm dụng tình dục trẻ em; tuy vậy, trong phần lớn trường hợp, người giữ hình ảnh do AI tạo cũng đồng thời giữ hình ảnh ấu dâm thật, cho phép công tố viện áp dụng khung xử lý nặng hơn.
Một số vụ phải xử theo các điều khoản về văn hóa phẩm đồi trụy, thay vì các điều khoản chuyên về lạm dụng tình dục trẻ em; tuy vậy, trong phần lớn trường hợp, người giữ hình ảnh do AI tạo cũng đồng thời giữ hình ảnh ấu dâm thật, cho phép công tố viện áp dụng khung xử lý nặng hơn.
Đến nay, đa số tiểu bang ở Mỹ đã ban hành luật liên quan đến hình ảnh “deepfake” thân mật, nhiều nơi nhắm riêng đến việc bảo vệ trẻ vị thành niên, còn ở cấp liên bang, chính quyền Trump đã ban hành đạo luật TAKE IT DOWN, coi việc tạo hình ảnh thân mật bằng AI mà không có sự đồng ý là tội phạm, đồng thời buộc các nền tảng phải gỡ bỏ nội dung khi nạn nhân yêu cầu trong thời hạn nhất định.
Một dự luật khác – ENFORCE – đang chờ Hạ viện xem xét, nhằm cho phép xử lý người tạo và phát tán hình ảnh ấu dâm bằng AI theo cùng mức độ nghiêm khắc như các dạng hình ảnh ấu dâm khác, nhưng giới chuyên môn vẫn lưu ý rằng các thủ tục lập pháp thường mất nhiều năm để hoàn tất, trong khi công cụ AI lại thay đổi theo từng tháng, khiến việc ngăn chặn kịp thời trở nên hết sức khó khăn.
Một dự luật khác – ENFORCE – đang chờ Hạ viện xem xét, nhằm cho phép xử lý người tạo và phát tán hình ảnh ấu dâm bằng AI theo cùng mức độ nghiêm khắc như các dạng hình ảnh ấu dâm khác, nhưng giới chuyên môn vẫn lưu ý rằng các thủ tục lập pháp thường mất nhiều năm để hoàn tất, trong khi công cụ AI lại thay đổi theo từng tháng, khiến việc ngăn chặn kịp thời trở nên hết sức khó khăn.
VB
Nguồn: Theo bản phóng sự điều tra của NBC News, trích các dữ kiện từ Trung tâm Quốc gia về Trẻ em Mất tích và Bị Khai thác (NCMEC) cùng hồ sơ điều tra của giới công lực Hoa Kỳ.



