AI của Anthropic được sử dụng trong các cuộc đình công ở Iran sau khi Trump có động thái cắt đứt quan hệ: WSJ

Decrypt

Tóm tắt

  • Bộ Tư lệnh Trung ương Mỹ (US Central Command) được cho là đã sử dụng Claude của Anthropic để đánh giá tình báo, xác định mục tiêu và mô phỏng chiến đấu trong các cuộc không kích Iran.
  • Các chuyên gia cảnh báo rằng kế hoạch loại bỏ trong vòng sáu tháng không phản ánh đúng chi phí thực sự của việc thay thế một mô hình AI tích hợp trong các hệ thống quốc phòng bí mật.
  • OpenAI đã ký hợp đồng với Lầu Năm Góc sau khi Anthropic gặp rắc rối.

Chỉ vài giờ sau khi Tổng thống Donald Trump ra lệnh các cơ quan liên bang ngừng sử dụng các công cụ AI của Anthropic, quân đội Mỹ đã tiến hành một cuộc không kích lớn vào Iran, được cho là dựa trên nền tảng Claude của công ty này. Bộ Tư lệnh Trung ương Mỹ đã sử dụng Claude để đánh giá tình báo, xác định mục tiêu và mô phỏng các kịch bản chiến đấu trong các cuộc không kích Iran, theo những người quen thuộc với vấn đề xác nhận với Wall Street Journal vào thứ Bảy. Điều này diễn ra bất chấp chỉ thị của Trump vào thứ Sáu rằng các cơ quan bắt đầu quá trình loại bỏ các sản phẩm của Anthropic trong vòng sáu tháng sau khi các cuộc đàm phán giữa công ty và Bộ Quốc phòng về cách sử dụng các hệ thống AI thương mại của Pentagon thất bại. Decrypt đã liên hệ với Bộ Quốc phòng và Anthropic để xin ý kiến bình luận.

“Khi các công cụ AI đã được tích hợp trong các hệ thống tình báo và mô phỏng trực tiếp, các quyết định ở cấp cao không ngay lập tức chuyển thành thay đổi trên thực địa,” Midhun Krishna M, đồng sáng lập và CEO của TknOps.io, công ty theo dõi chi phí LLM, nói với Decrypt. “Có một độ trễ — về mặt kỹ thuật, thủ tục và con người.” “Đến khi một mô hình được tích hợp trong các hệ thống tình báo và mô phỏng bí mật, bạn phải đối mặt với chi phí tích hợp đã bỏ ra, đào tạo lại, xác nhận an ninh và thử nghiệm song song, vì vậy việc loại bỏ trong vòng sáu tháng có thể nghe có vẻ quyết đoán, nhưng gánh nặng tài chính và vận hành thực sự còn sâu xa hơn nhiều,” Krishna bổ sung. “Các cơ quan quốc phòng giờ đây sẽ ưu tiên khả năng di động của mô hình và dự phòng,” ông nói. “Không một nhà vận hành quân sự nghiêm túc nào muốn phát hiện ra trong một cuộc khủng hoảng rằng lớp AI của họ đang gặp rắc rối về chính trị.”

Giám đốc điều hành Anthropic, Dario Amodei, hôm thứ Năm cho biết công ty sẽ không loại bỏ các biện pháp phòng ngừa ngăn Claude được triển khai cho giám sát trong nước quy mô lớn hoặc vũ khí tự động hoàn toàn. “Chúng tôi không thể yên tâm đồng ý với yêu cầu của họ,” Amodei viết, sau khi Bộ Quốc phòng yêu cầu các nhà thầu cho phép hệ thống của họ được sử dụng cho “bất kỳ mục đích hợp pháp nào.” “Các kẻ cực đoan cánh tả tại Anthropic đã phạm một sai lầm THẢM HẠI khi cố gắng ép buộc Bộ Chiến tranh,” Trump sau đó đã viết trên Truth Social, ra lệnh các cơ quan “ngay lập tức ngừng” tất cả việc sử dụng các sản phẩm của Anthropic. Bộ trưởng Quốc phòng Pete Hegseth đã theo sau, gọi Anthropic là “mối đe dọa chuỗi cung ứng đối với an ninh quốc gia,” một nhãn hiệu trước đây chỉ dành cho các đối thủ nước ngoài, cấm mọi hoạt động thương mại của Pentagon với công ty này. Anthropic gọi nhãn hiệu này là “chưa từng có” và hứa sẽ thách thức trong tòa án, nói rằng nó “chưa từng được áp dụng công khai cho một công ty Mỹ.” Công ty còn cho biết, theo hiểu biết của họ, hai hạn chế tranh chấp chưa ảnh hưởng đến bất kỳ nhiệm vụ chính phủ nào cho đến nay. “Cuộc tranh luận không phải về việc AI có được sử dụng trong quốc phòng hay không, điều đó đã và đang xảy ra,” Krishna nói. “Câu hỏi là liệu các phòng thí nghiệm tiên phong có thể duy trì các giới hạn khác biệt khi hệ thống của họ trở thành tài sản vận hành theo hợp đồng ‘bất kỳ mục đích hợp pháp nào’ hay không.” OpenAI đã nhanh chóng lấp đầy khoảng trống này với CEO Sam Altman thông báo về một thỏa thuận với Pentagon vào tối thứ Sáu, bao gồm các mạng lưới quân sự bí mật, và tuyên bố rằng nó có các giới hạn giống như Anthropic đã yêu cầu.

Hôm qua, chúng tôi đã đạt được thỏa thuận với Bộ Chiến tranh về việc triển khai các hệ thống AI tiên tiến trong môi trường bí mật, và yêu cầu họ cung cấp cho tất cả các công ty AI.

Chúng tôi nghĩ rằng việc triển khai của chúng tôi có nhiều giới hạn hơn bất kỳ thỏa thuận nào trước đây về AI bí mật…

— OpenAI (@OpenAI) ngày 28 tháng 2 năm 2026

Hỏi liệu việc Pentagon thực sự đưa vào danh sách đen Anthropic có tạo ra tiền lệ đáng lo ngại cho các tranh chấp trong tương lai với các công ty AI hay không, CEO OpenAI Sam Altman đã trả lời trên X, “Có; tôi nghĩ đó là một tiền lệ cực kỳ đáng sợ, và tôi ước họ xử lý theo cách khác. “Tôi cũng không nghĩ Anthropic đã xử lý tốt, nhưng với tư cách là bên mạnh hơn, tôi đổ trách nhiệm nhiều hơn cho chính phủ. Tôi vẫn hy vọng sẽ có một giải pháp tốt hơn nhiều,” ông nói thêm. Trong khi đó, gần 500 nhân viên của OpenAI và Google đã ký một bức thư mở cảnh báo rằng Pentagon đang cố gắng khiến các công ty AI cạnh tranh nhau.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận