Giám đốc điều hành của Anthropic, Dario Amodei, đã rò rỉ một bản ghi nhớ nội bộ, trong đó trực tiếp chỉ trích lời nói của Giám đốc điều hành OpenAI, Sam Altman, là “hoàn toàn dối trá”, và gọi các giao dịch mới nhất của đối thủ với Bộ Quốc phòng là “chiêu trò an ninh giả tạo”.
Hai ông lớn trong ngành AI toàn cầu, đang đối đầu trực diện về một vấn đề có thể quyết định hướng đi của AI trong mười năm tới.
Chủ đề gây ra xung đột bắt nguồn từ hợp đồng quân sự trị giá 200 triệu USD mà Anthropic ban đầu nắm giữ. Thông qua hợp tác với Palantir, Claude AI của Anthropic đã được triển khai trên các mạng lưới quân sự bí mật.
Tuy nhiên, vào cuối tháng 2, tình hình trở nên căng thẳng hơn, Bộ Quốc phòng gửi tối hậu thư cho Anthropic: Loại bỏ tất cả các hạn chế sử dụng AI, cho phép truy cập không giới hạn cho “mọi mục đích hợp pháp”, nếu không, hợp đồng sẽ bị chấm dứt trước ngày 27 tháng 2 và công ty sẽ bị đưa vào danh sách đen.
Giám đốc điều hành Amodei sau đó đã từ chối công khai, tuyên bố “không thể làm ngơ” trước điều khoản này, kiên quyết giữ vững hai giới hạn đỏ không thể vượt qua:
Đọc thêm: Trump muốn cấm hoàn toàn Anthropic! Từ chối sửa đổi giới hạn “giết người” của Claude
Kết quả là, phản ứng trả đũa diễn ra nhanh chóng và dữ dội. Chỉ vài giờ sau khi Anthropic từ chối, chính quyền Trump đã liệt công ty này vào danh sách “rủi ro chuỗi cung ứng” (thường dùng để chỉ các đối tượng nước ngoài đối địch), về cơ bản cấm công ty này hợp tác trong tất cả các hợp đồng liên bang, đồng thời gọi công ty là “cánh tả cực đoan, thức tỉnh” và là mối đe dọa an ninh quốc gia.
Vào ngày 28 tháng 2, chỉ vài giờ sau khi Anthropic bị cấm hợp tác, Altman đã tuyên bố rằng OpenAI đã đạt thỏa thuận với Bộ Chiến tranh. Trong bài đăng chính thức trên blog, OpenAI cho biết hợp đồng này bao gồm các “giới hạn đỏ” tương tự như của Anthropic: hạn chế vũ khí tự hành, giám sát quy mô lớn trong nước và các quyết định tự động quan trọng.
Tuy nhiên, vấn đề nằm ở chi tiết. Hợp đồng của OpenAI cho phép “mọi mục đích hợp pháp”, không phải là cấm rõ ràng như Anthropic đã kiên quyết. OpenAI giải thích: “Trong quá trình tương tác của chúng tôi, Bộ Chiến tranh đã rõ ràng tuyên bố rằng giám sát quy mô lớn trong nước là bất hợp pháp, và họ không có kế hoạch đó.”
Các nhà phê bình ngay lập tức chỉ ra điểm mấu chốt: pháp luật luôn thay đổi. Những hành vi ngày hôm nay bị coi là bất hợp pháp có thể trở thành hợp pháp trong tương lai, khiến cho các hợp đồng dựa trên “mục đích hợp pháp” về cơ bản rất dễ bị tổn thương.
Trong bản ghi nhớ bị rò rỉ, Amodei đánh giá rất thẳng thắn về cuộc chiến tranh dư luận này:
Tôi nghĩ rằng những chiêu trò thao túng dư luận này không hiệu quả trước công chúng và truyền thông. Phần lớn mọi người đều cho rằng giao dịch của OpenAI với Bộ Chiến tranh đáng ngờ, còn chúng tôi là những anh hùng.
Ông còn trực tiếp chỉ trích động cơ của Altman:
Lý do chính họ chấp nhận còn chúng tôi từ chối, là vì họ quan tâm đến việc dỗ dành nhân viên, còn chúng tôi thực sự quan tâm đến việc ngăn chặn lạm dụng.
Theo báo cáo của TechCrunch, trong bản ghi nhớ, Amodei còn cáo buộc Altman “tự đóng vai trò hòa bình và thương lượng giỏi”. Trước làn sóng chỉ trích dữ dội, Altman đã thừa nhận trong cuộc họp toàn thể nhân viên của OpenAI rằng quyết định này mang lại hậu quả thương hiệu rất khó khăn, nhưng vẫn bảo vệ rằng đó là quyết định phức tạp nhưng đúng đắn về mặt an ninh quốc gia.
Khi sự việc ngày càng leo thang, người dùng cũng bắt đầu hành động thực tế để thể hiện ý kiến. Gần đây, lượng tải xuống ChatGPT của OpenAI tăng vọt; đồng thời, số lượt tải ứng dụng Claude của Anthropic cũng tăng mạnh.
Anthropic chọn cách từ chối và chấp nhận hậu quả, với cái giá là mất hợp đồng liên bang và quan hệ chính phủ; còn OpenAI chọn hợp tác nhưng đặt giới hạn, dẫn đến mất lòng tin của người dùng và uy tín thương hiệu. Cả hai đều có lý do riêng, nhưng đều phải trả giá.
Điều đáng lo ngại hơn cả là, cuộc tranh luận này đã phơi bày một vấn đề sâu xa hơn: trong thời đại AI ngày càng quân sự hóa nhanh chóng, khoảng cách giữa “hợp pháp” và “đúng đắn” đang ngày càng mở rộng.