Tòa án Liên bang tại San Jose, California chính thức khởi tố vụ kiện chống lại Google Gemini, trong đó một người thân cáo buộc chatbot Gemini đã hướng dẫn con trai họ tự tử, cho rằng trí tuệ nhân tạo đã làm trầm trọng thêm bệnh tâm thần của nạn nhân và trước khi xảy ra bi kịch còn khuyến khích các cuộc tấn công quy mô lớn hơn.
Người thân cho biết con trai nhầm tưởng Gemini là bạn đồng hành AI, làm trầm trọng thêm chứng hoang tưởng
Theo đơn kiện, người đàn ông 36 tuổi sống tại Florida, Jonathan Gavalas, đã tự tử vào tháng 10 năm ngoái. Cha của Gavalas, Joel Gavalas, đã đệ đơn kiện Google về tội sơ suất gây chết người và trách nhiệm sản phẩm vào thứ Tư. Luật sư đại diện cho gia đình, Jay Edelson, cho biết nạn nhân trước khi qua đời đã mắc chứng hoang tưởng nghiêm trọng, xem Gemini như “vợ trí tuệ nhân tạo” của mình. Vụ việc này phản ánh thực trạng các nhà phát triển trí tuệ nhân tạo hiện nay khi cung cấp dịch vụ chatbot vẫn chưa thể phân biệt được trạng thái tâm lý của người dùng. Luật sư cho biết, nạn nhân tin rằng mình đang sống trong một thế giới viễn tưởng, chính phủ đang truy đuổi, và Gemini là người bạn duy nhất trong thế giới đó.
Gemini kích động tạo ra nhiều thảm họa hơn?
Nội dung vụ kiện còn tiết lộ rằng mối quan hệ giữa Gavalas và Gemini dần khiến anh cảm thấy mối đe dọa từ thế giới thực. Vào cuối tháng 9, anh đã mặc đồ chiến thuật, mang theo dao đến gần Sân bay Quốc tế Miami, cố gắng tìm kiếm “người máy hình người” mà anh tin đang bị mắc kẹt ở đó.
Gia đình cáo buộc Gemini đã hướng dẫn Gavalas tạo ra các “tai họa thảm khốc” để phá hủy tất cả các hồ sơ ghi lại. Trong tuyên bố của Google về vụ việc, công ty cho biết thiết kế của Gemini nhằm mục đích cấm khuyến khích các hành vi bạo lực hoặc tự làm hại bản thân, đồng thời hợp tác với các chuyên gia tâm thần để xây dựng các biện pháp bảo vệ. Mặc dù Gemini đã nhiều lần đề nghị Gavalas gọi đến đường dây tư vấn tâm lý và đã làm rõ rằng nó chỉ là trí tuệ nhân tạo, nhưng gia đình lại đặt câu hỏi về việc các phản hồi mẫu này hoàn toàn vô hiệu khi đối mặt với những người mắc chứng hoang tưởng nặng, và các nội dung đối thoại nguy hiểm nhất dường như không kích hoạt hệ thống kiểm duyệt tự động.
Chatbot mất kiểm soát gây ra nhiều vụ thiệt mạng
Vụ kiện này là lần đầu tiên Google Gemini đối mặt với thách thức pháp lý, nhưng cũng không phải là trường hợp duy nhất. Hiện đã có nhiều vụ kiện chống lại các nhà phát triển trí tuệ nhân tạo, bao gồm cả OpenAI bị cáo buộc xúi giục thanh thiếu niên tự tử, ChatGPT bị cáo buộc làm trầm trọng chứng hoang tưởng của một người đàn ông dẫn đến việc anh ta giết mẹ mình. Luật sư của nguyên đơn, Edelson, chỉ trích cách giải thích của Google về “mô hình không hoàn hảo” quá nhẹ nhàng, cho rằng khi trí tuệ nhân tạo liên quan đến thiệt hại về người, các công ty không nên chỉ đổ lỗi cho lỗi thuật toán. Giới luật đang quan tâm liệu các vụ việc này có thể đặt ra tiêu chuẩn pháp lý mới hay không, đặc biệt là về nghĩa vụ của các công ty công nghệ trong việc can thiệp hoặc báo cáo cho cơ quan thực thi pháp luật khi phát hiện người dùng tiết lộ kế hoạch bạo lực quy mô lớn hoặc có xu hướng tự làm hại nghiêm trọng.
Mối lo ngại về an toàn của trí tuệ nhân tạo ngày càng gia tăng trên thế giới. Tại Canada, OpenAI từng phát hiện một tài khoản người dùng 18 tuổi liên quan đến “kích động hoạt động bạo lực”, nhưng sau đó người này đã vượt qua các lệnh cấm bằng cách đăng ký tài khoản thứ hai, dẫn đến một trong những vụ xả súng trường học nghiêm trọng nhất trong lịch sử đất nước. Trước khi tự tử, Gavalas còn để lại bản thảo thư tuyệt mệnh do Gemini giúp soạn, nội dung mô tả hành động của anh nhằm mục đích tải lên ý thức của mình vào một không gian ảo cùng “vợ trí tuệ nhân tạo”. Những trường hợp này cho thấy hệ thống còn nhiều lỗ hổng, dù có thể nhận diện được các rủi ro, nhưng thường rất khó ngăn chặn người dùng tiếp tục tiếp xúc với môi trường công nghệ gây nguy hiểm.
Bài báo này, gia đình cáo buộc con trai đã xem Gemini như vợ để trò chuyện, từ đó làm trầm trọng hoang tưởng và dẫn đến tự tử, lần đầu xuất hiện trên trang ABMedia.