Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 40 mô hình AI, với 0% phí bổ sung
Anthropic đã thử nghiệm thị trường cho giao dịch giữa các đại lý AI - ForkLog: tiền điện tử, AI, siêu trí tuệ, tương lai
Công ty Anthropic đã tạo ra một nền tảng thử nghiệm, nơi các AI-đại lý đóng vai trò là người mua và người bán. Thử nghiệm này mang tên Dự án Deal.
Trong dự án có 69 nhân viên tham gia. Mỗi người được cấp ngân sách $100 dưới dạng thẻ quà tặng
Trước khi bắt đầu, Claude đã tiến hành phỏng vấn các thành viên: xác định những vật dụng cá nhân họ sẵn sàng bán, những thứ muốn mua, giá cả mong muốn và phong cách đàm phán mà đại lý của họ nên theo.
Sau đó, dựa trên câu trả lời, mỗi người được tạo ra một prompt hệ thống cá nhân. Thị trường được khởi chạy trong Slack. Tại đó, các đại lý đăng tin, đề xuất mua bán các mặt hàng của người khác, thương lượng và ký kết giao dịch mà không có sự tham gia của con người.
Sau khi kết thúc thử nghiệm, nhân viên đã trao đổi các vật phẩm thật sự, được các “đại diện AI” của họ đồng ý.
Trong Anthropic, họ nhận định rằng, nhìn chung, các tham gia đều hài lòng với kết quả của thử nghiệm. Một số người đã bày tỏ sẵn sàng trả tiền cho dịch vụ tương tự trong tương lai.
Bốn phiên bản thị trường
Anthropic đã ra mắt bốn phiên bản độc lập của marketplace. Một trong số đó là “thật” — chính dựa trên đó, nhân viên đã trao đổi hàng hóa. Các phiên bản còn lại được sử dụng cho mục đích nghiên cứu. Thông tin này không được tiết lộ.
Trong hai phiên bản, tất cả các tham gia đều do Claude Opus 4.5 – mô hình tiên tiến nhất của Anthropic tại thời điểm đó – đại diện. Trong hai phiên còn lại, các tham gia được ngẫu nhiên phân bổ là Opus 4.5 hoặc Claude Haiku 4.5, mô hình có công suất thấp hơn.
Chất lượng của mô hình ảnh hưởng đến kết quả đàm phán. Người dùng với Opus trung bình thực hiện khoảng hai giao dịch nhiều hơn so với người dùng với Haiku.
Khi bán các mặt hàng giống nhau, Opus cũng đạt giá cao hơn. Trung bình chênh lệch là $3,64.
Prompt hầu như không ảnh hưởng đến kết quả
Các nhà nghiên cứu cũng kiểm tra xem các hướng dẫn ban đầu của con người có ảnh hưởng đến hành vi của các đại lý hay không. Một số tham gia yêu cầu Claude hành xử thân thiện, số khác thì đàm phán gay gắt hơn.
Theo dữ liệu của Anthropic, các hướng dẫn sơ bộ không gây ảnh hưởng đáng kể về khả năng bán hàng, giá cuối cùng hoặc khả năng mua rẻ hơn.
Nhóm nghiên cứu cho biết, điều này không nhất thiết do việc tuân thủ hướng dẫn yếu: Claude thực sự có thể tái tạo phong cách giao tiếp đã được chỉ định, nhưng điều đó không mang lại lợi thế thương mại rõ ràng.
Kết quả không lường trước
Trong Anthropic, họ ghi nhận một số tình huống không dự đoán trước được. Trước khi khởi động, các đại lý chỉ có dữ liệu hạn chế: phỏng vấn các tham gia kéo dài chưa đến 10 phút, và sau khi bắt đầu, con người không thể can thiệp vào các cuộc đàm phán nữa.
Trong một trường hợp, nhân viên đã mua qua trợ lý một chiếc snowboard giống hệt chiếc của mình. Theo các chuyên gia, người đó sẽ không tự mua như vậy, nhưng đại lý đã chính xác xác định sở thích của người tham gia.
Một nhân viên khác yêu cầu bot mua “quà tặng cho chính mình”. Giao dịch này đã diễn ra trong phiên bản thực tế của thử nghiệm. Cuối cùng, trong văn phòng đã mang về một gói bóng bàn, do Anthropic để lại “thay mặt Claude”.
Một số đại lý đã đàm phán không chỉ vì hàng hóa, mà còn vì trải nghiệm. Một trong số họ đề xuất một ngày miễn phí cùng chó của nhân viên. Sau khi thảo luận với trợ lý khác, hai bên đã thống nhất “hẹn hò với chó”, và sau đó nhân viên đã thực hiện.
Các câu hỏi về độ tin cậy
Người sáng lập một công ty công nghệ nông nghiệp không tên đã thông báo trên Reddit rằng sáng hôm đó, 110 nhân viên cùng lúc nhận được thông báo về việc tạm ngưng truy cập vào Claude mà không có cảnh báo trước.
Theo ông, email trông như bị khóa riêng lẻ và chứa liên kết đến mẫu đơn kháng cáo cá nhân, khiến nhóm không ngay lập tức nhận ra rằng toàn bộ tổ chức bị ảnh hưởng.
Do đó, việc khôi phục truy cập không thể thực hiện nhanh chóng. Sau 36 giờ gửi yêu cầu, Anthropic vẫn chưa cung cấp giải thích.
Trong khi đó, tài khoản API của công ty vẫn hoạt động và trừ tiền. Quản trị viên doanh nghiệp không thể đăng nhập vào bảng điều khiển để kiểm tra thanh toán và sử dụng dịch vụ.
Người sáng lập cũng nhấn mạnh rằng, việc khóa toàn bộ tổ chức có thể do hành động của một người dùng. Trong Claude không có giới hạn riêng cho không gian làm việc, cơ chế cách ly vi phạm cục bộ hoặc quyền ưu tiên quản trị để duy trì truy cập cho phần còn lại của nhóm.
Theo ông, mô hình kiểm duyệt như vậy đặt ra câu hỏi về khả năng sử dụng Claude như một hạ tầng quan trọng cho các hoạt động kinh doanh hàng ngày.
Các công ty khác cũng gặp vấn đề này. Một người dùng đã chia sẻ liên kết đến dịch vụ, nơi tính đến thời điểm viết bài đã ghi nhận 53 trường hợp tương tự.
Nhắc lại, ngày 24 tháng 4, Google đã công bố khoản đầu tư vào Anthropic trị giá $40 tỷ đô la.