OpenAI hợp tác với Bộ Quốc phòng Hoa Kỳ gây tranh cãi, Sam Altman thừa nhận thỏa thuận quá vội vàng và đã chỉnh sửa điều khoản khẩn cấp

GateNews

Vào ngày 3/3, theo CNBC, Giám đốc điều hành OpenAI Sam Altman thừa nhận rằng thỏa thuận hợp tác trí tuệ nhân tạo trước đây của công ty với Bộ Quốc phòng Mỹ là quá vội vàng và cho biết các điều khoản liên quan sẽ được điều chỉnh. Tuyên bố này được đưa ra khi dư luận tiếp tục lên men, sau khi OpenAI công bố hợp tác với Lầu Năm Góc, làm dấy lên các cuộc thảo luận rộng rãi về đạo đức AI, sử dụng quân sự và bảo mật dữ liệu.

Theo thông tin công khai, thỏa thuận đã được công bố vào thứ Sáu tuần trước, cùng thời điểm chính phủ Hoa Kỳ đang thúc đẩy một số quyết định liên quan đến an ninh quốc gia. Sau khi tin tức được tiết lộ, một số cộng đồng công nghệ và người dùng bày tỏ lo ngại về khả năng sử dụng công nghệ trí tuệ nhân tạo cho mục đích quân sự. Sam Altman sau đó đã đăng trên các nền tảng xã hội để đáp lại rằng công ty sẽ bổ sung các hạn chế mới vào thỏa thuận, bao gồm quy định rõ ràng rằng các hệ thống AI không thể được sử dụng để giám sát trong nước đối với công dân hoặc cư dân Hoa Kỳ.

Sam Altman cũng cho biết Bộ Quốc phòng Mỹ đã xác nhận rằng các công cụ trí tuệ nhân tạo của OpenAI sẽ không được các cơ quan tình báo như Cơ quan An ninh Quốc gia (NSA) sử dụng trực tiếp cho các nhiệm vụ giám sát tình báo. Đồng thời, OpenAI có kế hoạch làm việc với Lầu Năm Góc để phát triển các biện pháp bảo vệ kỹ thuật bổ sung nhằm giảm nguy cơ lạm dụng AI trong các tình huống nhạy cảm.

Giám đốc điều hành cũng thừa nhận rằng công ty đã mắc sai lầm trong phán đoán khi tiến hành thỏa thuận. Ông nói rằng vào thời điểm đó, nhóm muốn nhanh chóng giảm leo thang tình hình và tránh xung đột chính trị nghiêm trọng hơn, nhưng nhìn lại, quyết định này có vẻ quá vội vàng và có thể dễ dàng được hiểu là suy đoán.

Tranh cãi cũng liên quan đến Anthropic, một công ty AI khác. Trước đó, Anthropic đã bất đồng với chính phủ Mỹ về ranh giới của việc sử dụng mô hình AI Claude và tìm kiếm sự đảm bảo rõ ràng rằng các hệ thống của họ sẽ không được sử dụng để giám sát trong nước hoặc phát triển vũ khí tự động. Các cuộc đàm phán giữa hai bên được cho là đã đổ vỡ.

Đồng thời, có những biến động đáng chú ý về tâm lý người dùng trên mạng. Một số người dùng đã giảm sử dụng ChatGPT trên các nền tảng ứng dụng và chuyển sang các sản phẩm cạnh tranh như Claude, tiếp tục mở rộng các tranh cãi về đạo đức trong ngành AI.

Trong phản hồi của mình, Sam Altman cũng cho biết ông không tin rằng Anthropic nên được coi là một rủi ro chuỗi cung ứng và hy vọng rằng Bộ Quốc phòng Hoa Kỳ sẽ cung cấp cho nó các điều kiện hợp tác tương tự như OpenAI. Vụ việc này một lần nữa nhấn mạnh rằng trong bối cảnh công nghệ trí tuệ nhân tạo phát triển nhanh chóng, vấn đề ranh giới giữa AI và an ninh quốc gia, ứng dụng quân sự và quy định xã hội đang trở thành tâm điểm chú ý trong ngành công nghệ toàn cầu.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận