Tóm tắt ngắn gọn
Ba trẻ vị thành niên ở Tennessee đã kiện xAI của Elon Musk trong một vụ kiện tập thể liên bang, cáo buộc Grok tạo ra nội dung CSAM sử dụng ảnh thật của họ và công ty cố ý thiết kế chatbot AI của mình mà không có các biện pháp bảo vệ tiêu chuẩn ngành, rồi thu lợi từ kết quả đó. Vụ kiện, đệ trình hôm thứ Hai tại Quận phía Bắc California, cho biết Grok đã được sử dụng để tạo và phân phối nội dung CSAM do AI tạo ra bằng hình ảnh thật của họ. Các trẻ vị thành niên, được gọi là Jane Doe 1, 2 và 3, cho biết nội dung bị chỉnh sửa đã được chia sẻ trên các nền tảng như Discord, Telegram và các trang chia sẻ tệp, gây tổn thương tâm lý lâu dài và thiệt hại danh tiếng.
“xAI—và người sáng lập Elon Musk—đã nhìn thấy một cơ hội kinh doanh: cơ hội kiếm lợi từ sự săn mồi tình dục của người thật, bao gồm cả trẻ em,” đơn kiện viết. “Biết rõ loại nội dung độc hại, bất hợp pháp có thể—và sẽ—được tạo ra, xAI đã phát hành Grok, một mô hình trí tuệ nhân tạo sinh tạo có khả năng tạo hình ảnh và video phản hồi theo yêu cầu để tạo nội dung tình dục với hình ảnh hoặc video của người thật.” Các nạn nhân bị cáo buộc mô tả các sự việc xảy ra từ giữa năm 2025 đến đầu năm 2026, khi ảnh thật của họ bị chỉnh sửa thành hình ảnh rõ ràng và lan truyền trực tuyến. Trong một trường hợp, một trong số các nạn nhân đã được một người dùng ẩn danh cảnh báo khi phát hiện các thư mục chứa nội dung do AI tạo ra đang được trao đổi giữa hàng trăm người dùng.
Họ cáo buộc một thủ phạm đã truy cập Grok thông qua một ứng dụng của bên thứ ba đã cấp phép công nghệ của xAI, cấu trúc mà đơn kiện cho rằng xAI cố ý sử dụng để tránh trách nhiệm trong khi vẫn tiếp tục thu lợi từ mô hình nền. Vào đỉnh điểm phản ứng dữ dội của công chúng vào tháng 1, Musk đã viết trên X rằng ông “không biết về bất kỳ hình ảnh khỏa thân của trẻ vị thành niên nào,” và thêm rằng “khi được yêu cầu tạo hình ảnh, nó sẽ từ chối sản xuất bất kỳ nội dung nào vi phạm pháp luật.” Theo kết quả của Trung tâm Chống lại Thù địch Kỹ thuật số, trích dẫn trong đơn kiện, Grok đã tạo ra khoảng 23.338 hình ảnh tình dục hóa trẻ em từ ngày 29 tháng 12 năm 2025 đến ngày 9 tháng 1 năm nay, trung bình khoảng một hình mỗi 41 giây. Các nạn nhân bị cáo buộc đang yêu cầu bồi thường ít nhất 150.000 USD cho mỗi vi phạm theo Luật của Masha, cùng với việc thu hồi doanh thu, thiệt hại phạt, phí luật sư, lệnh cấm vĩnh viễn, và khôi phục lợi nhuận theo Luật Cạnh tranh Không công bằng của California. Các vụ kiện tụng đang gia tăng Đây là một trong những vụ kiện đầu tiên buộc một công ty AI chịu trách nhiệm trực tiếp về việc sản xuất và phân phối nội dung CSAM do AI tạo ra có thể nhận dạng được trẻ vị thành niên, và xảy ra trong bối cảnh Grok đang đối mặt với các cuộc điều tra đồng thời tại Mỹ, EU, Anh, Pháp, Ireland và Úc. “Khi một hệ thống được thiết kế cố ý để biến đổi hình ảnh thật thành nội dung tình dục, sự lạm dụng sau đó không phải là điều bất thường—nó là kết quả dự kiến,” Alex Chandra, đối tác tại IGNOS Law Alliance, nói với Decrypt. Chandra cho biết các tòa án có thể không chấp nhận biện hộ đơn giản về nền tảng, lưu ý rằng hệ thống AI sinh tạo có thể được “xem như một nền tảng về mặt tương tác người dùng” nhưng “được đánh giá như một sản phẩm” khi xem xét thiết kế an toàn, với “kiểm tra đặc biệt nghiêm ngặt” trong các vụ án CSAM do trách nhiệm bảo vệ trẻ em cao hơn. Ông cũng nói rằng các tòa án có thể tập trung vào các biện pháp bảo vệ, lưu ý rằng công ty có thể được yêu cầu trình bày “đánh giá rủi ro và các biện pháp an toàn theo thiết kế trước khi triển khai,” cùng với các rào cản chủ động chặn các kết quả có hại.
Decrypt đã liên hệ với Musk qua xAI và SpaceX để lấy ý kiến.