Theo báo cáo độc quyền của Axios, Bộ Quốc phòng Mỹ đang xem xét chấm dứt hợp tác với Anthropic, do công ty AI này kiên quyết hạn chế sử dụng mô hình Claude cho quân đội, từ chối mở rộng giám sát quy mô lớn và vũ khí hoàn toàn tự chủ. Đáng chú ý là OpenAI, Google và xAI đều đã đồng ý với điều khoản “mọi mục đích hợp pháp” của Bộ Quốc phòng, khiến Anthropic trở thành phòng thí nghiệm AI duy nhất trong bốn ông lớn vẫn giữ vững lập trường này.
(Thông tin tiền đề: Dự án mới của Elon Musk “Căn cứ mặt trăng Alpha”: xây dựng nhà máy AI siêu lớn trên mặt trăng, phóng vào hệ mặt trời bằng tên lửa khổng lồ)
(Bổ sung bối cảnh: Hoảng loạn AI gây thất nghiệp! Giám đốc điều hành Microsoft cảnh báo: phần lớn lao động trí thức sẽ bị tự động hóa trong “12-18 tháng tới”)
Mục lục bài viết
Theo trích dẫn của Axios từ một quan chức cấp cao chính phủ, Bộ Quốc phòng Mỹ đang thúc giục bốn phòng thí nghiệm AI hàng đầu (OpenAI, Google, xAI, Anthropic) cho phép quân đội sử dụng công cụ của họ cho “mọi mục đích hợp pháp” (all lawful purposes), bao gồm phát triển vũ khí, thu thập tình báo và hoạt động chiến trường, những lĩnh vực nhạy cảm nhất.
Yêu cầu này xuất phát từ “Bản ghi nhớ chiến lược trí tuệ nhân tạo của Bộ Quốc phòng” ban hành ngày 9 tháng 1 năm nay. Tài liệu rõ ràng chỉ đạo trong vòng 180 ngày, điều khoản “mọi mục đích hợp pháp” phải được đưa vào tất cả các hợp đồng mua bán AI, nghĩa là tiêu chuẩn sử dụng quân sự của AI sẽ ngang bằng với tiêu chuẩn sử dụng vũ lực thông thường, không còn yêu cầu “kiểm soát của con người có ý nghĩa” nữa.
Tuy nhiên, sau nhiều tháng đàm phán khó khăn, Anthropic vẫn chưa chấp nhận các điều khoản này, và Bộ Quốc phòng đã cảm thấy “bực bội” về điều đó. Một quan chức cho biết:
Mọi thứ đều có thể xảy ra, bao gồm giảm hoặc chấm dứt hợp tác với Anthropic. Nhưng nếu chúng tôi cho rằng làm như vậy là đúng đắn, thì phải tìm được đối tác thay thế phù hợp cho họ.
Đối mặt với sức ép từ Bộ Quốc phòng, Anthropic kiên quyết giữ vững hai giới hạn không thể vượt qua:
Quan chức cao cấp thừa nhận, còn nhiều mập mờ về các trường hợp sử dụng nằm trong hai giới hạn này, và những trường hợp không nên. Nếu Bộ Quốc phòng muốn đàm phán từng mục đích cụ thể với Anthropic hoặc gặp phải Claude từ chối một số ứng dụng trong thực tế, đó đều là “không khả thi”.
Điều đáng chú ý là, năm ngoái, Anthropic đã ký hợp đồng nguyên mẫu hai năm trị giá tối đa 2 tỷ USD với Bộ Quốc phòng, trong đó Claude trở thành mô hình AI thương mại đầu tiên được phép hoạt động trong mạng lưới bí mật của Bộ, phục vụ các công việc nhạy cảm như thử nghiệm vũ khí, liên lạc chiến đấu tức thì.
Nguyên nhân dẫn đến khủng hoảng hợp đồng này bắt nguồn từ một sự kiện xảy ra vào đầu tháng này. Theo Axios ngày 13 tháng 2, trong chiến dịch đột kích Venezuela và bắt giữ cựu tổng thống Nicolás Maduro, quân đội Mỹ đã triển khai Claude qua nền tảng của Palantir để xử lý dữ liệu tình báo tức thời.
Bài báo cho biết, sau khi biết chuyện, các lãnh đạo cấp cao của Anthropic đã chủ động liên hệ với Palantir hỏi về việc Claude có được sử dụng trong chiến dịch đột kích hay không, “ngữ điệu cho thấy họ có thể không đồng tình với cách sử dụng này, vì chiến dịch liên quan đến vũ khí năng lượng (tấn công xuyên thấu không gây nổ)”.
Claude đã phủ nhận, gây ra lo ngại nghiêm trọng trong nội bộ Bộ Quốc phòng.
Phát ngôn viên của Anthropic lập tức phủ nhận, từng thảo luận với Bộ Quốc phòng về một số hoạt động quân sự cụ thể.
Ngược lại với Anthropic, ba phòng thí nghiệm AI còn lại thể hiện sự linh hoạt cao hơn khi đối mặt với yêu cầu của Bộ Quốc phòng:
Theo nguồn tin, ít nhất một trong ba công ty này đã hoàn toàn chấp nhận điều khoản “mọi mục đích hợp pháp”, hai công ty còn lại cũng thể hiện sự linh hoạt lớn hơn nhiều so với Anthropic. Điều này khiến Anthropic trở thành người duy nhất giữ vững nguyên tắc an toàn trong cuộc đua vũ khí AI của quân đội, nhưng cũng đối mặt với nguy cơ bị loại khỏi cuộc chơi.
Sản phẩm AI cuối cùng sẽ hướng tới phục vụ quốc gia, và quân sự là lĩnh vực không thể tránh khỏi.