Anthropic cho biết đã bị tấn công phân tách quy mô lớn

CryptoBreaking

Nhà phát triển AI của Frontier, Anthropic, đã công khai cáo buộc ba phòng thí nghiệm AI Trung Quốc—DeepSeek, Moonshot và Minimax—thực hiện các cuộc tấn công chưng cất nhằm rút trộm khả năng từ Claude, mô hình ngôn ngữ lớn của Anthropic. Trong một bài đăng blog chi tiết, công ty mô tả các chiến dịch được cho là đã tạo ra hơn 16 triệu lượt trao đổi qua khoảng 24.000 tài khoản giả mạo, lợi dụng các kết quả của Claude để huấn luyện các mô hình kém hơn. Chưng cất, một chiến thuật huấn luyện được công nhận trong AI, trở nên vấn đề khi được triển khai quy mô lớn để sao chép các tính năng mạnh mẽ mà không phải trả chi phí phát triển tương ứng. Anthropic nhấn mạnh rằng trong khi chưng cất có các mục đích hợp pháp, nó có thể giúp các đối thủ rút ngắn quá trình đạt đột phá và nâng cao sản phẩm của họ chỉ với một phần nhỏ thời gian và chi phí.

Các điểm chính

Chưng cất liên quan đến việc huấn luyện một mô hình yếu hơn dựa trên kết quả của một mô hình mạnh hơn, là phương pháp phổ biến để tạo ra các phiên bản nhỏ hơn, rẻ hơn của hệ thống AI.

Anthropic cáo buộc rằng DeepSeek, Moonshot và Minimax đã tổ chức các chiến dịch chưng cất quy mô lớn, tạo ra hàng triệu tương tác với Claude qua hàng chục nghìn tài khoản giả mạo.

Các cuộc tấn công được cho là nhắm vào các khả năng đặc biệt của Claude, bao gồm lý luận có chủ đích, sử dụng công cụ và lập trình, cho thấy tập trung vào các năng lực có giá trị cao, có thể chuyển giao.

Công ty lập luận rằng các chiến dịch chưng cất từ nước ngoài mang theo rủi ro địa chính trị, có thể trang bị cho các tác nhân độc quyền khả năng nâng cao cho các hoạt động mạng, thông tin sai lệch và giám sát.

Anthropic cho biết sẽ tăng cường khả năng phát hiện, chia sẻ thông tin mối đe dọa và thắt chặt kiểm soát truy cập, đồng thời kêu gọi hợp tác rộng rãi trong ngành và tham gia quy định để chống lại các mối đe dọa này.

Bối cảnh thị trường: Sự việc diễn ra trong bối cảnh ngày càng tăng sự chú ý đến khả năng tương tác của các mô hình AI và an ninh của các dịch vụ AI dựa trên đám mây, trong đó cũng đề cập đến các hệ thống tự động được sử dụng trong thị trường tiền điện tử và các công cụ quản lý rủi ro liên quan. Khi các mô hình AI ngày càng tích hợp sâu vào giao dịch, đánh giá rủi ro và hỗ trợ quyết định, việc đảm bảo tính toàn vẹn của dữ liệu đầu vào và kết quả mô hình trở nên quan trọng hơn bao giờ hết đối với cả nhà phát triển và người dùng trong lĩnh vực tiền điện tử.

Tại sao điều này quan trọng

Các cáo buộc nhấn mạnh một mâu thuẫn cốt lõi trong AI tiên phong: ranh giới giữa chưng cất hợp pháp và sao chép khai thác. Chưng cất là một thực hành phổ biến, hợp pháp do các phòng thí nghiệm sử dụng để cung cấp các phiên bản nhỏ gọn hơn của mô hình cho khách hàng có ngân sách tính toán hạn chế. Tuy nhiên, khi được khai thác quy mô lớn trong một hệ sinh thái duy nhất, kỹ thuật này có thể bị lợi dụng để trích xuất các khả năng đòi hỏi nhiều nghiên cứu và kỹ thuật. Nếu được xác nhận, các chiến dịch này có thể thúc đẩy một suy nghĩ lại về cách kiểm soát, giám sát và kiểm tra quyền truy cập vào các mô hình mạnh, đặc biệt đối với các công ty có phạm vi toàn cầu và hạ tầng đám mây phức tạp.

Anthropic khẳng định rằng ba công ty nêu tên đã thực hiện các hoạt động nhằm khai thác khả năng cao cấp của Claude thông qua sự phối hợp của các chỉ số IP, dữ liệu yêu cầu và các chỉ báo hạ tầng, có sự xác nhận độc lập từ các đối tác trong ngành. Điều này cho thấy một nỗ lực phối hợp, dựa trên dữ liệu để lập bản đồ và sao chép khả năng AI dựa trên đám mây, chứ không chỉ là các thử nghiệm riêng lẻ. Quy mô được mô tả—hàng chục triệu lượt tương tác qua hàng nghìn tài khoản—gây ra câu hỏi về các biện pháp phòng thủ để phát hiện và phá vỡ các mô hình này, cũng như các khung trách nhiệm pháp lý đối với các đối thủ nước ngoài hoạt động trong lĩnh vực AI có ảnh hưởng trực tiếp đến quốc gia và nền kinh tế.

“Chưng cất là một phương pháp huấn luyện phổ biến và hợp pháp. Ví dụ, các phòng thí nghiệm AI tiên phong thường chưng cất mô hình của chính họ để tạo ra các phiên bản nhỏ hơn, rẻ hơn cho khách hàng,” Anthropic viết, thêm:

“Nhưng chưng cất cũng có thể bị sử dụng cho mục đích bất hợp pháp: các đối thủ cạnh tranh có thể dùng nó để thu thập khả năng mạnh mẽ từ các phòng thí nghiệm khác chỉ trong một phần nhỏ thời gian và chi phí so với việc phát triển độc lập.”

Ngoài vấn đề sở hữu trí tuệ, Anthropic liên kết hoạt động bị cáo buộc này với rủi ro chiến lược đối với an ninh quốc gia, lập luận rằng các cuộc tấn công chưng cất của các phòng thí nghiệm nước ngoài có thể hỗ trợ các hệ thống quân sự, tình báo và giám sát. Công ty cho rằng các khả năng không được bảo vệ có thể cho phép các hoạt động mạng tấn công, chiến dịch thông tin sai lệch và giám sát quy mô lớn, làm phức tạp tính toán địa chính trị cho các nhà hoạch định chính sách và các doanh nghiệp. Khẳng định này xem vấn đề không chỉ là tranh chấp cạnh tranh mà còn có tác động rộng lớn đến cách bảo vệ và quản lý các công nghệ AI tiên phong.

Trong việc đề xuất hướng đi, Anthropic cho biết sẽ nâng cao hệ thống phát hiện để nhận diện các lưu lượng đáng ngờ, thúc đẩy chia sẻ thông tin mối đe dọa và thắt chặt kiểm soát truy cập. Công ty cũng kêu gọi các bên trong nước và các nhà lập pháp hợp tác chặt chẽ hơn trong việc phòng chống các tác nhân chưng cất từ nước ngoài, cho rằng phản ứng phối hợp toàn ngành là cần thiết để kiểm soát quy mô các hoạt động này.

Đối với những người theo dõi các chính sách AI, các cáo buộc này phản ánh các cuộc tranh luận đang diễn ra về cách cân bằng giữa đổi mới và các biện pháp phòng ngừa—những vấn đề đã vang vọng trong các cuộc thảo luận về quản trị, kiểm soát xuất khẩu và luồng dữ liệu xuyên biên giới. Ngành công nghiệp lâu nay đã đấu tranh để ngăn chặn việc sử dụng trái phép mà không làm cản trở các thử nghiệm hợp pháp, một mâu thuẫn sẽ trở thành trọng tâm trong các nỗ lực quy định và xây dựng tiêu chuẩn trong tương lai.

Những điều cần theo dõi tiếp theo

Anthropic và các công ty bị cáo buộc có thể công bố thêm chi tiết hoặc làm rõ về các cáo buộc và phản hồi của họ.

Các tổ chức tình báo mối đe dọa và nhà cung cấp đám mây có thể phát hành các chỉ số mới về các hoạt động đáng ngờ hoặc hướng dẫn phòng thủ liên quan đến các cuộc tấn công kiểu chưng cất.

Các nhà quản lý và nhà lập pháp có thể ban hành hoặc điều chỉnh các chính sách về quyền truy cập mô hình AI, chia sẻ dữ liệu xuyên biên giới và các biện pháp chống sao chép trái phép các mô hình có khả năng cao.

Các nhà nghiên cứu độc lập và các công ty an ninh có thể sao chép hoặc thách thức các phương pháp được sử dụng để xác định các chiến dịch bị cáo buộc, mở rộng cơ sở bằng chứng.

Các hợp tác trong ngành có thể hình thành để thiết lập các thực hành tốt nhất trong việc bảo vệ khả năng của các mô hình tiên phong và kiểm tra quy trình chưng cất mô hình.

Nguồn & xác thực

Bài đăng blog của Anthropic: Detecting and Preventing Distillation Attacks — tuyên bố chính thức về các cáo buộc và các chiến dịch mô tả.

Bài đăng trạng thái X của Anthropic đề cập trong phần tiết lộ — hồ sơ công khai về các phát hiện của công ty.

Báo cáo của Cointelegraph và các tài liệu liên quan bàn về các tác nhân AI, AI tiên phong và các mối quan tâm về an ninh liên quan được đề cập trong bài viết.

Các cuộc thảo luận liên quan về vai trò của chưng cất trong huấn luyện AI và khả năng bị lợi dụng trong môi trường cạnh tranh.

Các cuộc tấn công chưng cất và an ninh AI tiên phong

Chủ đề chính dựa trên việc lạm dụng có cấu trúc của chưng cất, trong đó kết quả của một mô hình mạnh hơn—trong trường hợp này là Claude—được sử dụng để huấn luyện các mô hình thay thế bắt chước hoặc xấp xỉ khả năng của nó. Anthropic cho rằng đây không phải là một rò rỉ nhỏ mà là một chiến dịch kéo dài qua hàng triệu lượt tương tác, cho phép ba công ty này xấp xỉ khả năng ra quyết định cao cấp, sử dụng công cụ và lập trình mà không phải chịu chi phí nghiên cứu ban đầu đầy đủ. Các con số được trích dẫn—hơn 16 triệu lượt trao đổi qua khoảng 24.000 tài khoản giả mạo—cho thấy quy mô có thể làm xáo trộn kỳ vọng về hiệu suất mô hình, trải nghiệm khách hàng và tính toàn vẹn dữ liệu cho người dùng dựa vào dịch vụ Claude.

Những gì cáo buộc này ngụ ý cho người dùng và nhà xây dựng

Đối với các nhà phát triển dựa trên AI, vụ việc nhấn mạnh tầm quan trọng của nguồn gốc rõ ràng, kiểm soát truy cập và giám sát liên tục việc sử dụng mô hình. Nếu chưng cất từ nước ngoài có thể mở rộng để tạo ra các bản sao khả thi của các khả năng hàng đầu, thì cánh cửa mở ra cho việc thương mại hóa rộng rãi các tính năng mạnh mẽ vốn đòi hỏi đầu tư lớn trước đó. Hậu quả có thể vượt ra ngoài mất sở hữu trí tuệ, bao gồm sự lệch lạc trong hành vi mô hình, thất bại trong tích hợp công cụ bất ngờ hoặc phát tán các kết quả đầu ra bị thay đổi tinh vi đến người dùng cuối. Các nhà xây dựng và vận hành dịch vụ AI—dù trong lĩnh vực tài chính, y tế hay công nghệ tiêu dùng—có thể phản ứng bằng cách tăng cường kiểm tra các tích hợp của bên thứ ba, điều khoản cấp phép chặt chẽ hơn và phát hiện bất thường nâng cao trong lưu lượng API và truy vấn mô hình.

Các yếu tố cần chú ý cho hệ sinh thái tiền điện tử

Trong khi vụ việc tập trung vào an ninh mô hình AI, tầm ảnh hưởng của nó đối với thị trường tiền điện tử nằm ở cách các hệ thống hỗ trợ quyết định tự động, bot giao dịch và công cụ đánh giá rủi ro phụ thuộc vào dữ liệu đầu vào đáng tin cậy của AI. Các nhà tham gia thị trường và nhà phát triển cần cảnh giác về tính toàn vẹn của các dịch vụ dựa trên AI và khả năng các khả năng bị sao chép hoặc bị xâm phạm có thể ảnh hưởng đến các hệ thống tự động. Tình hình này cũng làm nổi bật nhu cầu hợp tác liên ngành về chia sẻ thông tin mối đe dọa, tiêu chuẩn nguồn gốc mô hình và các thực hành tốt nhất chung để ngăn chặn các lỗ hổng AI lan rộng vào các công nghệ tài chính và nền tảng tài sản kỹ thuật số.

Điều cần theo dõi trong thời gian tới

Các cập nhật công khai từ Anthropic về phát hiện, chỉ số của các hoạt động đáng ngờ và các cột mốc khắc phục.

Làm rõ hoặc tuyên bố từ DeepSeek, Moonshot và Minimax về các cáo buộc.

Các hướng dẫn mới hoặc hành động thực thi của các nhà lập pháp về chưng cất từ nước ngoài và kiểm soát xuất khẩu các khả năng AI.

Các công cụ giám sát nâng cao và chiến lược kiểm soát truy cập do các nhà cung cấp đám mây lưu trữ mô hình AI tiên phong áp dụng.

Nghiên cứu độc lập xác thực hoặc phản bác các phương pháp được sử dụng để phát hiện các mô hình chưng cất và quy mô của hoạt động bị cáo buộc.

Các hợp tác trong ngành có thể hình thành để thiết lập các thực hành tốt nhất trong việc bảo vệ khả năng của các mô hình tiên phong và kiểm tra quy trình chưng cất mô hình.

Nguồn & xác thực

Bài đăng blog của Anthropic: Detecting and Preventing Distillation Attacks — tuyên bố chính thức về các cáo buộc và các chiến dịch mô tả.

Bài đăng trạng thái X của Anthropic đề cập trong phần tiết lộ — hồ sơ công khai về các phát hiện của công ty.

Báo cáo của Cointelegraph và các tài liệu liên quan bàn về các tác nhân AI, AI tiên phong và các mối quan tâm về an ninh liên quan được đề cập trong bài viết.

Các cuộc thảo luận liên quan về vai trò của chưng cất trong huấn luyện AI và khả năng bị lợi dụng trong môi trường cạnh tranh.

Các cuộc tấn công chưng cất và an ninh AI tiên phong

Chủ đề chính dựa trên việc lạm dụng có cấu trúc của chưng cất, trong đó kết quả của một mô hình mạnh hơn—trong trường hợp này là Claude—được sử dụng để huấn luyện các mô hình thay thế bắt chước hoặc xấp xỉ khả năng của nó. Anthropic cho rằng đây không phải là một rò rỉ nhỏ mà là một chiến dịch kéo dài qua hàng triệu lượt tương tác, cho phép ba công ty này xấp xỉ khả năng ra quyết định cao cấp, sử dụng công cụ và lập trình mà không phải chịu chi phí nghiên cứu ban đầu đầy đủ. Các con số được trích dẫn—hơn 16 triệu lượt trao đổi qua khoảng 24.000 tài khoản giả mạo—cho thấy quy mô có thể làm xáo trộn kỳ vọng về hiệu suất mô hình, trải nghiệm khách hàng và tính toàn vẹn dữ liệu cho người dùng dựa vào dịch vụ Claude.

Những gì cáo buộc này ngụ ý cho người dùng và nhà xây dựng

Đối với các nhà phát triển dựa trên AI, vụ việc nhấn mạnh tầm quan trọng của nguồn gốc rõ ràng, kiểm soát truy cập và giám sát liên tục việc sử dụng mô hình. Nếu chưng cất từ nước ngoài có thể mở rộng để tạo ra các bản sao khả thi của các khả năng hàng đầu, thì cánh cửa mở ra cho việc thương mại hóa rộng rãi các tính năng mạnh mẽ vốn đòi hỏi đầu tư lớn trước đó. Hậu quả có thể vượt ra ngoài mất sở hữu trí tuệ, bao gồm sự lệch lạc trong hành vi mô hình, thất bại trong tích hợp công cụ bất ngờ hoặc phát tán các kết quả đầu ra bị thay đổi tinh vi đến người dùng cuối. Các nhà xây dựng và vận hành dịch vụ AI—dù trong lĩnh vực tài chính, y tế hay công nghệ tiêu dùng—có thể phản ứng bằng cách tăng cường kiểm tra các tích hợp của bên thứ ba, điều khoản cấp phép chặt chẽ hơn và phát hiện bất thường nâng cao trong lưu lượng API và truy vấn mô hình.

Các yếu tố cần chú ý cho hệ sinh thái tiền điện tử

Trong khi vụ việc tập trung vào an ninh mô hình AI, tầm ảnh hưởng của nó đối với thị trường tiền điện tử nằm ở cách các hệ thống hỗ trợ quyết định tự động, bot giao dịch và công cụ đánh giá rủi ro phụ thuộc vào dữ liệu đầu vào đáng tin cậy của AI. Các nhà tham gia thị trường và nhà phát triển cần cảnh giác về tính toàn vẹn của các dịch vụ dựa trên AI và khả năng các khả năng bị sao chép hoặc bị xâm phạm có thể ảnh hưởng đến các hệ thống tự động. Tình hình này cũng làm nổi bật nhu cầu hợp tác liên ngành về chia sẻ thông tin mối đe dọa, tiêu chuẩn nguồn gốc mô hình và các thực hành tốt nhất chung để ngăn chặn các lỗ hổng AI lan rộng vào các công nghệ tài chính và nền tảng tài sản kỹ thuật số.

Điều cần theo dõi trong thời gian tới

Các cập nhật công khai từ Anthropic về phát hiện, chỉ số của các hoạt động đáng ngờ và các cột mốc khắc phục.

Làm rõ hoặc tuyên bố từ DeepSeek, Moonshot và Minimax về các cáo buộc.

Các hướng dẫn mới hoặc hành động thực thi của các nhà lập pháp về chưng cất từ nước ngoài và kiểm soát xuất khẩu các khả năng AI.

Các công cụ giám sát nâng cao và chiến lược kiểm soát truy cập do các nhà cung cấp đám mây lưu trữ mô hình AI tiên phong áp dụng.

Nghiên cứu độc lập xác thực hoặc phản bác các phương pháp được sử dụng để phát hiện các mô hình chưng cất và quy mô của hoạt động bị cáo buộc.

Bài viết này ban đầu được đăng tải dưới dạng Anthropic Says It’s Been Targeted by Massive Distillation Attacks trên Crypto Breaking News – nguồn tin cậy của bạn về tin tức tiền điện tử, tin Bitcoin và cập nhật blockchain.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)