Theo tiết lộ của The Wall Street Journal, Trung tâm Tình báo Trung ương Mỹ (CENTCOM) đã sử dụng hệ thống AI Claude của Anthropic trong các hoạt động không kích Iran, cung cấp phân tích tình báo, nhận diện mục tiêu và mô phỏng chiến trường — dù chỉ vài giờ trước đó Tổng thống Trump mới ký lệnh cấm sử dụng Anthropic. Sự kiện này cho thấy AI đã thấm sâu vào hạ tầng quốc phòng, ngay cả khi có lệnh cấm của tổng thống cũng khó có thể cắt đứt ngay lập tức. Anthropic bị Pentagon loại khỏi hợp đồng do từ chối gỡ bỏ các hạn chế về “vũ khí tự hành” và “giám sát quy mô lớn”, trong khi OpenAI nhanh chóng tiếp nhận.
(Trước đó: Trump muốn cấm hoàn toàn Anthropic! Từ chối chỉnh Claude để hạn chế “giết người”, OpenAI lại bất ngờ lên tiếng ủng hộ)
(Bổ sung nền: Pentagon đối mặt với Anthropic! Mở rộng sử dụng Claude cho mục đích quân sự “hoặc sẽ chấm dứt hợp đồng”)
Mục lục bài viết
Toggle
Vào thứ Sáu tuần trước, khi chính phủ Trump ra lệnh ngưng sử dụng toàn bộ công nghệ của Anthropic, Bộ trưởng Quốc phòng và các cơ quan liên quan còn xem đó là “rủi ro chuỗi cung ứng”, thì quân đội Mỹ vẫn dựa vào Claude để thực hiện các hoạt động không kích Iran. Sự mâu thuẫn này phản ánh một thực tế đáng lo ngại: AI đã thấm sâu vào hệ thống quân sự, vượt xa khả năng kiểm soát của các lệnh hành chính trong thời gian ngắn.
Theo nguồn tin của The Wall Street Journal, trong chiến dịch không kích Iran mang mã “Giận dữ Sử thi” (Operation Epic Fury), Trung tâm Tình báo Trung ương Mỹ vẫn tiếp tục sử dụng Claude để thực hiện nhiều nhiệm vụ quan trọng — bao gồm phân tích dữ liệu tình báo, hỗ trợ nhận diện mục tiêu và mô phỏng tình huống chiến trường.
Anthropic đã ký hợp đồng nguyên mẫu hai năm với giới hạn 200 triệu USD vào mùa hè năm ngoái với Pentagon, qua mối quan hệ hợp tác với Palantir và Amazon Web Services. Claude trở thành mô hình AI thương mại đầu tiên được phép vận hành trên mạng lưới bí mật của Pentagon, phục vụ từ thử nghiệm vũ khí đến liên lạc chiến trường tức thời. Báo cáo còn cho biết hệ thống này từng hỗ trợ trong hoạt động bắt giữ Tổng thống Venezuela Maduro vào tháng 1 năm nay.
Vấn đề cốt lõi là Pentagon yêu cầu Anthropic loại bỏ các hạn chế trong hợp đồng, cho phép Claude sử dụng cho “mọi mục đích hợp pháp”; nhưng CEO Dario Amodei từ chối thỏa hiệp, kiên quyết giữ hai nguyên tắc đạo đức:
Amodei tuyên bố, công ty phản đối việc AI bị dùng cho “giám sát nội địa quy mô lớn” và “hệ thống vũ khí hoàn toàn tự chủ”, nhấn mạnh rằng các quyết định quân sự phải do con người kiểm soát, chứ không để cho thuật toán quyết định. Trong tuyên bố, ông nói: “Chúng tôi không thể vô cảm đồng ý với yêu cầu đó.”
Bộ trưởng Quốc phòng Pete Hegseth đã liệt Anthropic vào danh sách “rủi ro chuỗi cung ứng”, trong khi Trump ra lệnh tất cả các cơ quan liên bang “ngay lập tức ngừng sử dụng” công nghệ của Anthropic — tuy nhiên, các cơ quan chủ chốt như Bộ Quốc phòng vẫn có thời gian chuyển đổi trong 6 tháng. Anthropic đã tuyên bố sẽ kiện ra tòa để phản đối quyết định này, cho rằng “không có căn cứ pháp lý”, và cảnh báo hành động này sẽ tạo tiền lệ nguy hiểm cho “bất kỳ công ty Mỹ nào đàm phán với chính phủ”.
Chỉ vài giờ sau khi Trump tuyên bố cấm Anthropic, OpenAI đã công bố đạt thỏa thuận với Bộ Quốc phòng để triển khai công nghệ AI của họ trên mạng lưới quân sự bí mật.
Điều đáng chú ý là, trong suốt quá trình tranh cãi, CEO Sam Altman của OpenAI đã từng trả lời phỏng vấn CNBC, công khai ủng hộ Anthropic, gọi họ là “đáng tin cậy trong lĩnh vực an toàn” — mặc dù cuối cùng OpenAI đã tiếp nhận hợp đồng quân sự mà Anthropic buộc phải từ bỏ. Mối quan hệ tinh tế giữa các ông lớn AI này phản ánh cuộc đấu tranh giữa lợi ích thương mại và đạo đức trong giới Silicon Valley.
Điều đáng suy ngẫm nhất không phải là cuộc chiến chính trị giữa Trump và Anthropic, mà là một thực tế sâu xa hơn: khi hệ thống AI đã thấm sâu vào từng khâu của hoạt động quân sự, từ phân tích tình báo đến mục tiêu, thì bất kỳ “rút dây” nào cũng không thể có hiệu quả trong thời gian ngắn.
Đối với cộng đồng tiền mã hóa và Web3, câu chuyện này cũng là một lời cảnh tỉnh — dù là AI hay blockchain, khi công nghệ đã đi vào trung tâm của chính phủ và hệ thống quốc phòng, thì “phi tập trung” cũng phải đối mặt với thử thách của “ý chí quốc gia”. Và câu chuyện của Anthropic cho thấy, giữ vững đạo đức công nghệ có thể phải trả giá bằng việc mất đi những khách hàng lớn nhất.