Trung tâm Chính sách Mạng (CPC) thuộc Đại học Stanford của Mỹ cho biết đã tìm ra hàng loạt hình ảnh phạm pháp, mô tả cảnh lạm dụng tình dục trẻ em, trên kho dữ liệu nguồn mở được dùng để huấn luyện các công cụ tạo ảnh phổ biến như Stable Diffusion.
Laion, tổ chức phi lợi nhuận xây dựng cơ sở dữ liệu này, sử dụng hàng loạt công cụ quét nội dung và tích lũy hơn 5 tỷ ảnh trên Internet để tạo lập thông tin huấn luyện AI. 1.000 ảnh được đánh giá rất nhỏ trong số trên, nhưng việc xuất hiện trong kho dữ liệu huấn luyện có thể khiến AI tạo ra những ảnh nhạy cảm có tính chân thực cao về trẻ em.
Giới chuyên gia cho rằng đây là hậu quả của cuộc đua sáng tạo và thiếu giám sát một cách trách nhiệm trong lĩnh vực AI. Phát hiện của CPC chỉ cho thấy bề nổi của tảng băng chìm và sẽ còn nhiều tài liệu phạm pháp trong những kho dữ liệu huấn luyện AI.
“Chỉ là vấn đề thời gian. Cánh cổng đã mở vào năm ngoái, khi hàng loạt công ty tung ra mô hình AI mà không có biện pháp bảo vệ. Cuộc đua chiếm lĩnh thị trường sẽ để lại hậu quả dài hạn”, Merve Hickok, Chủ tịch Trung tâm Chính sách Kỹ thuật số và AI (CAIDP) tại Mỹ, nhận xét trên Fortune.
Trước đó, hồi tháng 11, cảnh sát thành phố New Jersey đã mở cuộc điều tra vụ các nam sinh trung học sử dụng AI để tạo hình deepfake khỏa thân của bạn học. Hay chỉ trong tháng 9, 24 triệu người đã truy cập website dùng AI để “lột đồ” người trong ảnh, theo dữ liệu của công ty phân tích mạng xã hội Graphika. Kẻ xấu có thể dùng những ảnh này để tống tiền, uy hiếp hoặc bôi nhọ người khác. Khả năng tạo ảnh nhạy cảm về trẻ em cũng có thể đặt những đứa trẻ vào vòng nguy hiểm, ngay cả khi AI không mô tả từng người cụ thể.
Laion đã đóng cửa cơ sở dữ liệu trong thời gian ngắn để bảo đảm nó đủ an toàn trước khi mở trở lại. “Chúng tôi áp dụng những bộ lọc rất nghiêm ngặt để phát hiện và loại bỏ nội dung độc hại trước khi tung ra thị trường”, tổ chức này ra thông cáo, nhưng không hồi đáp câu hỏi về việc để lọt hơn 1.000 ảnh được CPC phát hiện.
Điệp Anh