Trong bối cảnh đạo đức AI và nhu cầu quân sự đang va chạm dữ dội, Giám đốc điều hành Anthropic Dario Amodei gần đây đã tái khởi động đàm phán với Bộ Quốc phòng Hoa Kỳ, nhằm cố gắng giữ vững “đường đỏ” của công ty để cứu vãn hợp đồng hợp tác AI trị giá hàng trăm triệu USD, tránh bị loại khỏi chuỗi cung ứng quốc phòng chính thức.
(Thông tin trước đó: CEO Anthropic chỉ trích dữ dội: Hợp đồng giữa OpenAI và Bộ Quốc phòng toàn là dối trá, Altman giả vờ làm đại sứ hòa bình)
(Bổ sung bối cảnh: Trump muốn cấm hoàn toàn Anthropic! Từ chối sửa Claude “giới hạn giết người”, bất ngờ lên tiếng ủng hộ OpenAI)
Mục lục bài viết
Chuyển đổi
Công ty trí tuệ nhân tạo Hoa Kỳ Anthropic, doanh nhân Dario Amodei gần đây đã tái khởi động đàm phán với Bộ Quốc phòng Hoa Kỳ (Pentagon), nhằm thực hiện những nỗ lực cuối cùng liên quan đến điều khoản hợp đồng về mô hình AI Claude trong mục đích quân sự. Động thái này diễn ra sau khi tuần trước hai bên đổ vỡ đàm phán, Pentagon liệt Anthropic vào danh sách “rủi ro chuỗi cung ứng”, nhằm tránh việc Anthropic bị loại khỏi hợp tác với quân đội Mỹ, đồng thời duy trì các nguyên tắc đạo đức cốt lõi của công ty.
Từ năm ngoái, Anthropic đã ký hợp đồng thử nghiệm trị giá lên tới 2 tỷ USD với Pentagon, biến Claude trở thành mô hình AI tiên tiến đầu tiên được phép triển khai trên mạng lưới bí mật. Tuy nhiên, chính quyền Trump sau đó yêu cầu sửa đổi điều khoản, kiên quyết rằng AI phải phù hợp với “mọi mục đích hợp pháp” (any lawful use), không có giới hạn nào.
Anthropic kiên trì giữ hai “đường đỏ”: cấm Claude sử dụng cho giám sát quy mô lớn của dân chúng Mỹ trong nước, và cấm sử dụng cho vũ khí chết người hoàn toàn tự động (fully autonomous weapons, tức hệ thống có thể chọn và tấn công mục tiêu mà không cần con người can thiệp). Anthropic cho rằng, những mục đích này có thể đe dọa các giá trị dân chủ, đồng thời công nghệ AI hiện tại chưa đủ độ tin cậy. Tuy nhiên, Bộ trưởng Quốc phòng Pete Hegseth đã gửi tối hậu thư, yêu cầu trong thời hạn phải thỏa hiệp, nếu không sẽ chấm dứt hợp đồng và thực thi theo quy định pháp luật, khiến đàm phán suýt đổ vỡ vào thứ Sáu tuần trước.
Theo nguồn tin thân cận, Amodei hiện đang trực tiếp đàm phán với Phó Bộ trưởng Nghiên cứu và Kỹ thuật Bộ Quốc phòng Emil Michael, nhằm đạt được một thỏa thuận trung gian để quân đội Mỹ tiếp tục sử dụng Claude, đồng thời giảm thiểu đáng kể rủi ro bị liệt vào danh sách đen của Anthropic.
Nếu thành công, hợp đồng mới có thể làm dịu căng thẳng và ảnh hưởng đến thế cân bằng cạnh tranh trong ngành AI — ví dụ, OpenAI đã đạt thỏa thuận với Pentagon, nhưng cũng đang điều chỉnh điều khoản để thêm các giới hạn tương tự. Anthropic nhấn mạnh vẫn sẵn sàng hợp tác, nhưng không từ bỏ các nguyên tắc cốt lõi; nếu không đạt được thỏa thuận, công ty sẽ hỗ trợ chuyển đổi một cách ổn định sang các nhà cung cấp khác để tránh ảnh hưởng đến hoạt động của quân đội.
Vụ tranh cãi này làm nổi bật cuộc chiến giữa các công ty AI và quân đội về đạo đức, an toàn và an ninh quốc gia. Anthropic với thương hiệu “AI có trách nhiệm” từ chối nhượng bộ vô điều kiện, phản ánh mối lo ngại sâu sắc của một số doanh nghiệp Silicon Valley về ứng dụng quân sự của AI; trong khi đó, Pentagon nhấn mạnh tính linh hoạt chiến trường và lợi thế công nghệ.
Nếu đàm phán thành công, có thể sẽ thiết lập một ví dụ mới cho ứng dụng quân sự của AI; ngược lại, có thể làm gia tăng chia rẽ trong ngành. Các chuyên gia dự đoán, có thể sớm sẽ có tuyên bố chính thức hoặc diễn biến mới xuất hiện.