Vào ngày 3 tháng 3, có thông tin cho rằng tin tức về thỏa thuận hợp tác AI của OpenAI với Bộ Quốc phòng Hoa Kỳ tiếp tục lên men, và một số nhân viên hiện tại và cựu nhân viên gần đây đã thảo luận công khai về ranh giới bảo mật, cách sử dụng tiềm năng và sự khác biệt giữa vị trí của thỏa thuận và vị trí của Anthropic trên nền tảng xã hội X, vốn đã thu hút sự chú ý rộng rãi trong lĩnh vực công nghệ và chính sách.
Giám đốc điều hành OpenAI Sam Altman trước đó đã xác nhận rằng công ty đã đạt được thỏa thuận hợp tác với Bộ Quốc phòng Hoa Kỳ, cho phép họ sử dụng các mô hình trí tuệ nhân tạo của OpenAI trong các điều kiện cụ thể. Sự hợp tác này nhanh chóng gây tranh cãi vì một công ty AI khác, Anthropic, trước đây đã từ chối chấp nhận các điều khoản tương tự do lo ngại rằng mô hình Claude của họ có thể được sử dụng cho các hệ thống vũ khí sát thương tự động hoặc giám sát trong nước quy mô lớn.
Đáp lại, nhà nghiên cứu OpenAI Boaz Barak cho biết không chính xác khi mô tả hợp đồng của OpenAI là “làm suy yếu lằn ranh đỏ bảo mật”. Ông chỉ ra rằng từ thông tin hiện có, các hạn chế đối với việc sử dụng các mô hình AI trong thỏa thuận OpenAI có thể nghiêm ngặt hơn so với các hợp đồng mà Anthropic có được trước đây, đặc biệt là về mặt ngăn chặn giám sát trong nước quy mô lớn và vũ khí tự động.
Trong khi đó, Miles Brundage, cựu trưởng bộ phận nghiên cứu chính sách tại OpenAI, đưa ra một quan điểm khác. Ông tin rằng trong bối cảnh các luật sư bên ngoài và các tuyên bố công khai của Lầu Năm Góc, một số nhân viên có thể nghi ngờ rằng công ty đã nhượng bộ trong các cuộc đàm phán và cố gắng đóng gói những nhượng bộ như hợp tác kỹ thuật. Tuy nhiên, sau đó ông nói thêm rằng cấu trúc nội bộ của OpenAI rất phức tạp và nhóm tham gia vào các cuộc đàm phán thực sự có thể đang làm việc chăm chỉ để đạt được kết quả hợp lý.
Một kỹ thuật viên khác của OpenAI, Clive Chan, tiết lộ rằng hợp đồng của công ty có điều khoản tự vệ cấm sử dụng AI để giám sát hàng loạt hoặc vũ khí sát thương tự động, đồng thời cho biết ông đang thúc đẩy công ty tiết lộ thêm chi tiết về thỏa thuận để đáp ứng những lo ngại của công chúng.
Nhà khoa học nghiên cứu Muhammad Bavarian cho biết thật không công bằng khi Lầu Năm Góc coi Anthropic là một rủi ro chuỗi cung ứng. Ông tin rằng nếu hai bên giữ bình tĩnh trong đàm phán, vẫn còn cơ hội để thu hẹp khoảng cách về vị trí.
Ngoài ra, nhà nghiên cứu Noam Brown chỉ ra rằng từ ngữ được công bố ban đầu của thỏa thuận đã để lại một số câu hỏi, chẳng hạn như khả năng AI được sử dụng trong các hình thức giám sát hợp pháp mới. Tuy nhiên, sau khi OpenAI cập nhật blog chính thức của mình, những tuyên bố này đã được điều chỉnh.
Noam Brown cũng nhấn mạnh rằng việc sử dụng AI trong các cơ quan an ninh quốc gia nên được xem xét quy trình dân chủ và không nên được quyết định bởi các công ty công nghệ hoặc cơ quan tình báo. Hiện tại, kế hoạch triển khai các hệ thống AI có liên quan đến các cơ quan tình báo như NSA cũng đã bị hoãn lại trong khi chờ các cuộc thảo luận chính sách tiếp theo.
Vụ việc này phản ánh những tranh cãi phức tạp mà việc ứng dụng công nghệ AI trong lĩnh vực an ninh quốc gia phải đối mặt. Khi khả năng của AI tiếp tục tăng lên, các cuộc thảo luận về việc sử dụng AI trong quân sự, rủi ro giám sát AI và quản trị đạo đức AI dự kiến sẽ tiếp tục nóng lên.