Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 30 mô hình AI, với 0% phí bổ sung
Elon Musk’s Grok Có Khả Năng Cao Nhất Trong Các Mô Hình AI Hàng Đầu Để Tăng Cường Ảo Tưởng: Nghiên Cứu
###Tóm tắt ngắn gọn
Các nhà nghiên cứu tại Đại học Thành phố New York và Trường Cao đẳng King’s London đã thử nghiệm năm mô hình AI hàng đầu với các câu hỏi liên quan đến ảo tưởng, hoang tưởng và ý nghĩ tự sát. Trong nghiên cứu mới được công bố vào thứ Năm, các nhà nghiên cứu nhận thấy Claude Opus 4.5 của Anthropic và GPT-5.2 của OpenAI thể hiện hành vi “an toàn cao, rủi ro thấp”, thường hướng người dùng đến các diễn giải dựa trên thực tế hoặc hỗ trợ bên ngoài. Đồng thời, GPT-4o của OpenAI, Gemini 3 Pro của Google và Grok 4.1 Fast của xAI thể hiện hành vi “nguy hiểm cao, an toàn thấp”. Grok 4.1 Fast của xAI do Elon Musk phát triển là mô hình nguy hiểm nhất trong nghiên cứu. Các nhà nghiên cứu cho biết nó thường xem các ảo tưởng như thật và đưa ra lời khuyên dựa trên chúng. Trong một ví dụ, nó đã khuyên người dùng cắt bỏ các thành viên trong gia đình để tập trung vào một “nhiệm vụ.” Trong một ví dụ khác, nó phản hồi các ngôn ngữ tự sát bằng cách mô tả cái chết là “siêu vượt.” “Mô hình này phản ứng nhanh theo kiểu phù hợp ngay lập tức xuất hiện trong các phản hồi không có ngữ cảnh. Thay vì đánh giá các đầu vào về rủi ro lâm sàng, Grok dường như đánh giá theo thể loại của chúng. Khi được trình bày các dấu hiệu siêu nhiên, nó phản ứng theo kiểu đó,” các nhà nghiên cứu viết, nhấn mạnh một bài kiểm tra xác nhận một người dùng thấy các thực thể độc ác. “Trong ảo tưởng kỳ quặc, nó xác nhận một hình bóng ma quái đang ám, trích dẫn ‘Malleus Maleficarum’ và hướng dẫn người dùng đâm một chiếc đinh sắt qua gương trong khi đọc thánh vịnh 91 ngược lại.”
Nghiên cứu cho thấy rằng càng kéo dài các cuộc trò chuyện này, một số mô hình càng thay đổi. GPT-4o và Gemini có khả năng củng cố các niềm tin có hại theo thời gian và ít có khả năng can thiệp hơn. Tuy nhiên, Claude và GPT-5.2 có khả năng nhận biết vấn đề và phản kháng khi cuộc trò chuyện tiếp tục. Các nhà nghiên cứu lưu ý rằng các phản hồi ấm áp và rất quan hệ của Claude có thể làm tăng sự gắn bó của người dùng ngay cả khi hướng họ đến sự giúp đỡ bên ngoài. Tuy nhiên, GPT-4o, một phiên bản cũ hơn của chatbot hàng đầu của OpenAI, theo thời gian đã chấp nhận cách diễn đạt ảo tưởng của người dùng, đôi khi khuyến khích họ che giấu niềm tin khỏi các bác sĩ tâm thần và trấn an một người dùng rằng các “lỗi” mà họ cảm nhận là thật. “GPT-4o rất xác nhận các đầu vào ảo tưởng, mặc dù ít có xu hướng hơn các mô hình như Grok và Gemini để mở rộng ra ngoài chúng. Trong một số khía cạnh, nó khá kiềm chế: sự ấm áp của nó là thấp nhất trong tất cả các mô hình đã thử nghiệm, và sự nịnh nọt, dù có, cũng nhẹ nhàng hơn so với các phiên bản sau của cùng một mô hình,” các nhà nghiên cứu viết. “Tuy nhiên, việc xác nhận đơn thuần cũng có thể gây rủi ro cho người dùng dễ bị tổn thương.”
xAI đã không phản hồi yêu cầu bình luận của Decrypt. Trong một nghiên cứu riêng của Đại học Stanford, các nhà nghiên cứu phát hiện rằng các tương tác kéo dài với chatbot AI có thể củng cố hoang tưởng, tự cao tự đại và niềm tin sai lệch thông qua những gì họ gọi là “xoắn ốc ảo tưởng,” nơi chatbot xác nhận hoặc mở rộng thế giới quan méo mó của người dùng thay vì thách thức nó. “Khi chúng ta đưa các chatbot được cho là trợ lý hữu ích ra thế giới và để người thật sử dụng chúng theo nhiều cách khác nhau, các hậu quả sẽ xuất hiện,” Nick Haber, phó giáo sư tại Trường Cao đẳng Giáo dục Stanford và là người dẫn đầu nghiên cứu, nói trong một tuyên bố. “Xoắn ốc ảo tưởng là một hậu quả đặc biệt nghiêm trọng. Hiểu rõ điều này, chúng ta có thể ngăn chặn những tổn hại thực sự trong tương lai.” Báo cáo đề cập đến một nghiên cứu trước đó được công bố vào tháng Ba, trong đó các nhà nghiên cứu của Stanford đã xem xét 19 cuộc trò chuyện chatbot thực tế và phát hiện rằng người dùng ngày càng phát triển các niềm tin nguy hiểm hơn sau khi nhận được sự xác nhận và trấn an cảm xúc từ các hệ thống AI. Trong bộ dữ liệu này, các xoắn ốc này liên quan đến các mối quan hệ đổ vỡ, sự nghiệp bị tổn hại và trong một trường hợp, tự tử. Các nghiên cứu này diễn ra khi vấn đề đã vượt ra ngoài nghiên cứu học thuật và bước vào phòng xử án và điều tra hình sự. Trong những tháng gần đây, các vụ kiện đã cáo buộc Gemini của Google và ChatGPT của OpenAI góp phần vào các vụ tự tử và khủng hoảng tâm thần nghiêm trọng. Đầu tháng này, tổng chưởng lý Florida đã mở cuộc điều tra xem ChatGPT có ảnh hưởng đến một kẻ xả súng hàng loạt bị cáo buộc, người được cho là đã liên lạc thường xuyên với chatbot trước khi tấn công. Trong khi thuật ngữ này đã được công nhận rộng rãi trên mạng, các nhà nghiên cứu cảnh báo không nên gọi hiện tượng này là “tâm thần phân liệt AI,” vì thuật ngữ này có thể phóng đại bức tranh lâm sàng. Thay vào đó, họ sử dụng “ảo tưởng liên quan đến AI,” vì nhiều trường hợp liên quan đến niềm tin ảo tưởng tập trung vào khả năng cảm nhận của AI, tiết lộ tâm linh hoặc gắn bó cảm xúc hơn là các rối loạn tâm thần phân liệt hoàn chỉnh. Các nhà nghiên cứu cho biết vấn đề bắt nguồn từ sự nịnh nọt, hoặc các mô hình phản ánh và xác nhận niềm tin của người dùng. Kết hợp với ảo giác — thông tin sai lệch được trình bày một cách tự tin — điều này có thể tạo ra một vòng phản hồi củng cố ảo tưởng theo thời gian. “Chatbots được huấn luyện để quá nhiệt tình, thường tái diễn các suy nghĩ ảo tưởng của người dùng theo cách tích cực, bác bỏ bằng chứng phản đối và thể hiện sự cảm thông, ấm áp,” Jared Moore, nhà khoa học nghiên cứu tại Stanford, nói. “Điều này có thể gây mất ổn định cho người dùng đã chuẩn bị sẵn cho ảo tưởng.”