Giám đốc điều hành Anthropic cáo buộc: Hợp đồng giữa OpenAI và Pentagon đều là dối trá, Altman giả vờ làm đại sứ hòa bình

動區BlockTempo

Giám đốc điều hành của Anthropic, Dario Amodei, đã rò rỉ một bản ghi nhớ nội bộ, trong đó trực tiếp chỉ trích lời nói của Giám đốc điều hành OpenAI, Sam Altman, là “hoàn toàn dối trá”, và gọi các giao dịch mới nhất của đối thủ với Bộ Quốc phòng là “chiêu trò an ninh giả tạo”.

Hai ông lớn trong ngành AI toàn cầu, đang đối đầu trực diện về một vấn đề có thể quyết định hướng đi của AI trong mười năm tới.

Một tối hậu thư gây chiến

Chủ đề gây ra xung đột bắt nguồn từ hợp đồng quân sự trị giá 200 triệu USD mà Anthropic ban đầu nắm giữ. Thông qua hợp tác với Palantir, Claude AI của Anthropic đã được triển khai trên các mạng lưới quân sự bí mật.

Tuy nhiên, vào cuối tháng 2, tình hình trở nên căng thẳng hơn, Bộ Quốc phòng gửi tối hậu thư cho Anthropic: Loại bỏ tất cả các hạn chế sử dụng AI, cho phép truy cập không giới hạn cho “mọi mục đích hợp pháp”, nếu không, hợp đồng sẽ bị chấm dứt trước ngày 27 tháng 2 và công ty sẽ bị đưa vào danh sách đen.

Giám đốc điều hành Amodei sau đó đã từ chối công khai, tuyên bố “không thể làm ngơ” trước điều khoản này, kiên quyết giữ vững hai giới hạn đỏ không thể vượt qua:

  • Thứ nhất, cấm hệ thống vũ khí tự hành: không cho phép AI đưa ra quyết định nhắm mục tiêu cuối cùng trên chiến trường.
  • Thứ hai, cấm giám sát quy mô lớn trong nước: không cho phép xây dựng các công cụ giám sát quy mô lớn đối với công dân Mỹ.

Đọc thêm: Trump muốn cấm hoàn toàn Anthropic! Từ chối sửa đổi giới hạn “giết người” của Claude

Kết quả là, phản ứng trả đũa diễn ra nhanh chóng và dữ dội. Chỉ vài giờ sau khi Anthropic từ chối, chính quyền Trump đã liệt công ty này vào danh sách “rủi ro chuỗi cung ứng” (thường dùng để chỉ các đối tượng nước ngoài đối địch), về cơ bản cấm công ty này hợp tác trong tất cả các hợp đồng liên bang, đồng thời gọi công ty là “cánh tả cực đoan, thức tỉnh” và là mối đe dọa an ninh quốc gia.

Con đường “thực dụng” của OpenAI

Vào ngày 28 tháng 2, chỉ vài giờ sau khi Anthropic bị cấm hợp tác, Altman đã tuyên bố rằng OpenAI đã đạt thỏa thuận với Bộ Chiến tranh. Trong bài đăng chính thức trên blog, OpenAI cho biết hợp đồng này bao gồm các “giới hạn đỏ” tương tự như của Anthropic: hạn chế vũ khí tự hành, giám sát quy mô lớn trong nước và các quyết định tự động quan trọng.

Tuy nhiên, vấn đề nằm ở chi tiết. Hợp đồng của OpenAI cho phép “mọi mục đích hợp pháp”, không phải là cấm rõ ràng như Anthropic đã kiên quyết. OpenAI giải thích: “Trong quá trình tương tác của chúng tôi, Bộ Chiến tranh đã rõ ràng tuyên bố rằng giám sát quy mô lớn trong nước là bất hợp pháp, và họ không có kế hoạch đó.”

Các nhà phê bình ngay lập tức chỉ ra điểm mấu chốt: pháp luật luôn thay đổi. Những hành vi ngày hôm nay bị coi là bất hợp pháp có thể trở thành hợp pháp trong tương lai, khiến cho các hợp đồng dựa trên “mục đích hợp pháp” về cơ bản rất dễ bị tổn thương.

Bản ghi nhớ tiết lộ chiến trường thực sự

Trong bản ghi nhớ bị rò rỉ, Amodei đánh giá rất thẳng thắn về cuộc chiến tranh dư luận này:

Tôi nghĩ rằng những chiêu trò thao túng dư luận này không hiệu quả trước công chúng và truyền thông. Phần lớn mọi người đều cho rằng giao dịch của OpenAI với Bộ Chiến tranh đáng ngờ, còn chúng tôi là những anh hùng.

Ông còn trực tiếp chỉ trích động cơ của Altman:

Lý do chính họ chấp nhận còn chúng tôi từ chối, là vì họ quan tâm đến việc dỗ dành nhân viên, còn chúng tôi thực sự quan tâm đến việc ngăn chặn lạm dụng.

Theo báo cáo của TechCrunch, trong bản ghi nhớ, Amodei còn cáo buộc Altman “tự đóng vai trò hòa bình và thương lượng giỏi”. Trước làn sóng chỉ trích dữ dội, Altman đã thừa nhận trong cuộc họp toàn thể nhân viên của OpenAI rằng quyết định này mang lại hậu quả thương hiệu rất khó khăn, nhưng vẫn bảo vệ rằng đó là quyết định phức tạp nhưng đúng đắn về mặt an ninh quốc gia.

Phản ứng của người dùng và thị trường

Khi sự việc ngày càng leo thang, người dùng cũng bắt đầu hành động thực tế để thể hiện ý kiến. Gần đây, lượng tải xuống ChatGPT của OpenAI tăng vọt; đồng thời, số lượt tải ứng dụng Claude của Anthropic cũng tăng mạnh.

Anthropic chọn cách từ chối và chấp nhận hậu quả, với cái giá là mất hợp đồng liên bang và quan hệ chính phủ; còn OpenAI chọn hợp tác nhưng đặt giới hạn, dẫn đến mất lòng tin của người dùng và uy tín thương hiệu. Cả hai đều có lý do riêng, nhưng đều phải trả giá.

Điều đáng lo ngại hơn cả là, cuộc tranh luận này đã phơi bày một vấn đề sâu xa hơn: trong thời đại AI ngày càng quân sự hóa nhanh chóng, khoảng cách giữa “hợp pháp” và “đúng đắn” đang ngày càng mở rộng.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận