Tóm tắt
Anthropic đã loại bỏ cam kết an toàn trung tâm khỏi Chính sách Mở rộng Có trách nhiệm của mình, theo báo cáo của TIME. Các thay đổi này nới lỏng cam kết từng cấm nhà phát triển Claude AI đào tạo các hệ thống AI tiên tiến mà không có các biện pháp bảo vệ đảm bảo. Chuyển động này định hình lại cách công ty tự định vị trong cuộc đua AI với các đối thủ như OpenAI, Google và xAI. Anthropic từ lâu đã tự coi mình là một trong những phòng thí nghiệm tập trung vào an toàn nhất trong ngành, nhưng theo chính sách sửa đổi, Anthropic không còn hứa sẽ ngừng đào tạo nếu các biện pháp giảm thiểu rủi ro chưa được thực hiện đầy đủ. “Chúng tôi cảm thấy rằng việc chúng tôi dừng đào tạo các mô hình AI sẽ không thực sự giúp ích gì cho ai,” Jared Kaplan, giám đốc khoa học của Anthropic, nói với TIME. “Chúng tôi thực sự không cảm thấy, với sự tiến bộ nhanh của AI, rằng việc đưa ra cam kết đơn phương là hợp lý… nếu các đối thủ đang tiến xa hơn.”
Sự thay đổi này diễn ra khi Anthropic đang vướng vào tranh cãi công khai với Bộ trưởng Quốc phòng Mỹ Pete Hegseth về việc từ chối cấp quyền truy cập đầy đủ vào Claude, khiến nó trở thành phòng thí nghiệm AI lớn duy nhất trong số Google, xAI, Meta và OpenAI giữ quan điểm đó. Edward Geist, nhà nghiên cứu chính sách cao cấp tại RAND Corporation, cho biết khung “an toàn AI” trước đây xuất phát từ một cộng đồng trí tuệ cụ thể tồn tại trước các mô hình ngôn ngữ lớn ngày nay. “Vài năm trước, có lĩnh vực an toàn AI,” Geist nói với Decrypt. “An toàn AI liên quan đến một bộ quan điểm xuất phát từ cộng đồng những người quan tâm đến AI mạnh mẽ trước khi chúng ta có các LLM này.” Geist cho biết các nhà vận động an toàn AI ban đầu làm việc dựa trên một tầm nhìn rất khác về hình dạng của trí tuệ nhân tạo tiên tiến.
“Họ đã kết thúc bằng cách hình dung vấn đề theo một cách khác biệt về mặt chất lượng so với các LLM hiện tại, dù tốt hay xấu,” Geist nói. Geist cho biết sự thay đổi ngôn ngữ này cũng gửi một tín hiệu tới các nhà đầu tư và nhà hoạch định chính sách. “Một phần của nó là nhằm gửi tín hiệu tới các nhóm khác nhau rằng nhiều công ty này muốn tạo ấn tượng rằng họ không giữ lại trong cuộc cạnh tranh kinh tế vì lo ngại về ‘an toàn AI,’” ông nói, thêm rằng thuật ngữ này đang thay đổi để phù hợp với thời đại. Anthropic không phải là công ty duy nhất chỉnh sửa ngôn ngữ về an toàn của mình. Điều gì định nghĩa an toàn AI? Một báo cáo gần đây của tổ chức phi lợi nhuận The Conversation đã chỉ ra cách OpenAI cũng đã thay đổi tuyên bố sứ mệnh trong hồ sơ thuế IRS năm 2024, loại bỏ từ “an toàn.” Tuyên bố trước đó của công ty cam kết xây dựng AI đa năng “mang lại lợi ích an toàn cho nhân loại, không bị ràng buộc bởi nhu cầu tạo lợi nhuận tài chính.” Phiên bản cập nhật hiện nay nêu rõ mục tiêu là “đảm bảo rằng trí tuệ nhân tạo tổng quát mang lại lợi ích cho toàn nhân loại.” “Vấn đề với thuật ngữ an toàn AI là không ai rõ chính xác nghĩa của nó là gì,” Geist nói. “Dù sao, thuật ngữ an toàn AI cũng đã từng gây tranh cãi.” Chính sách mới của Anthropic nhấn mạnh các biện pháp minh bạch như công bố “lộ trình an toàn tiên phong” và các “báo cáo rủi ro” định kỳ, và nói rằng sẽ trì hoãn phát triển nếu cho rằng có nguy cơ thảm họa đáng kể.
Chuyển biến trong chính sách của Anthropic và OpenAI diễn ra khi các công ty này cố gắng củng cố vị thế thương mại. Đầu tháng này, Anthropic tuyên bố đã huy động được 30 tỷ USD với định giá khoảng 380 tỷ USD. Đồng thời, OpenAI đang hoàn tất vòng gọi vốn được hỗ trợ bởi Amazon, Microsoft và Nvidia, có thể đạt tới 100 tỷ USD. Anthropic và OpenAI, cùng với Google và xAI, đã nhận được các hợp đồng chính phủ béo bở từ Bộ Quốc phòng Mỹ. Tuy nhiên, hợp đồng của Anthropic có vẻ đang gặp khó khăn khi Bộ Quốc phòng cân nhắc cắt đứt quan hệ với công ty AI này do phàn nàn về quyền truy cập. Khi nguồn vốn đổ vào ngành ngày càng nhiều và cạnh tranh địa chính trị ngày càng gay gắt, Hamza Chaudhry, Trưởng bộ phận AI và An ninh Quốc gia tại Viện Tương lai của Cuộc sống, cho biết sự thay đổi chính sách phản ánh các biến động chính trị hơn là một nỗ lực giành thị phần của Pentagon. “Nếu đúng như vậy, họ đã chỉ cần rút lui khỏi những gì Bộ Quốc phòng nói cách đây một tuần,” Chaudhry nói với Decrypt. “Dario [Amodei] đã không đến gặp.” Thay vào đó, Chaudhry cho biết việc viết lại chính sách phản ánh một bước ngoặt trong cách các công ty AI nói về rủi ro khi áp lực chính trị và các lợi ích cạnh tranh ngày càng gia tăng. “Anthropic giờ đây nói, ‘Nhìn này, chúng tôi không thể cứ nói về an toàn mãi, chúng tôi không thể tạm dừng vô điều kiện, và chúng tôi sẽ thúc đẩy quy định nhẹ hơn nhiều,’” ông nói.