DeepSeek V4 tuyên bố từ bỏ NVIDIA! Cuộc chiến "độc lập năng lực tính toán" của AI Trung Quốc đã đi đến đâu rồi?

動區BlockTempo

DeepSeek công bố thế hệ V4 mới sẽ hoàn toàn sử dụng giải pháp chip nội địa, không còn phụ thuộc vào GPU của Nvidia. Từ vụ Trung Tín đến ba vòng cấm vận chip, ngành công nghiệp AI Trung Quốc đang đồng thời vượt qua bằng ba con đường: tối ưu thuật toán, thay thế nội địa và xuất khẩu Token.
(Trước đó: Lão Cao nói về DeepSeek: Tuyệt đối không sao chép ChatGPT, dùng công nghệ nền để vượt qua nền tảng CUDA của Nvidia)
(Bổ sung nền tảng: FBI, Nhà Trắng bắt đầu điều tra! Mỹ nghi ngờ: DeepSeek lấy chip Nvidia qua tay trắng Singapore)

Tám năm trước, Trung Tín rơi vào trạng thái ngưng hoạt động đột ngột. Ngày 16 tháng 4 năm 2018, Bộ Thương mại Mỹ ban hành lệnh cấm, khiến Trung Tín Communications, công ty có 80.000 nhân viên, doanh thu hàng năm trên nghìn tỷ, là nhà cung cấp thiết bị viễn thông lớn thứ tư toàn cầu, đột nhiên dừng hoạt động trong một đêm. Nội dung lệnh cấm rất đơn giản: Trong vòng bảy năm tới, cấm mọi công ty Mỹ bán linh kiện, hàng hóa, phần mềm và công nghệ cho Trung Tín.

Không có chip của Qualcomm, trạm phát sóng dừng sản xuất. Không có giấy phép Android của Google, điện thoại cũng không còn hệ điều hành khả dụng. Sau 23 ngày, Trung Tín phát thông báo, cho biết hoạt động chính của công ty đã không thể tiếp tục.

Tuy nhiên, cuối cùng Trung Tín vẫn sống sót, nhưng phải trả giá 1,4 tỷ USD.

Phạt 1 tỷ USD, trả một lần; 400 triệu USD tiền bảo đảm, gửi vào tài khoản ủy thác tại ngân hàng Mỹ. Thêm vào đó, toàn bộ ban lãnh đạo thay máu, chấp nhận giám sát pháp lý của phía Mỹ. Trong cả năm 2018, Trung Tín lỗ ròng 7 tỷ nhân dân tệ, doanh thu giảm 21,4% so với cùng kỳ.

Chủ tịch Trung Tín lúc đó, Yin Yimin, viết trong thư nội bộ: “Chúng ta đang ở trong một ngành công nghiệp phức tạp, phụ thuộc rất lớn vào chuỗi cung ứng toàn cầu.” Câu này, nghe lúc đó là sự tự vấn, cũng là sự bất lực.

Sau tám năm, ngày 26 tháng 2 năm 2026, công ty AI kỳ lân DeepSeek của Trung Quốc tuyên bố rằng, mô hình đa phương thức V4 sắp ra mắt sẽ ưu tiên hợp tác sâu với các nhà sản xuất chip nội địa, lần đầu tiên thực hiện toàn bộ quy trình từ tiền huấn luyện đến tinh chỉnh mà không dựa vào Nvidia.

Nghĩa là: Chúng tôi không còn dùng Nvidia nữa.

Thông tin này vừa phát ra, phản ứng đầu tiên của thị trường là hoài nghi. Nvidia chiếm hơn 90% thị phần chip đào tạo AI toàn cầu, từ bỏ nó, có hợp lý về mặt thương mại không?

Nhưng đằng sau lựa chọn của DeepSeek, ẩn chứa một vấn đề lớn hơn cả lý logic thương mại: AI Trung Quốc, thực sự cần một cuộc cách mạng về độc lập tính toán như thế nào?

Nhiều người nghĩ rằng, lệnh cấm chip chỉ kìm hãm phần cứng. Nhưng thứ thực sự khiến các công ty AI Trung Quốc cảm thấy nghẹt thở là một thứ gọi là CUDA.

CUDA, viết tắt của Compute Unified Device Architecture, là nền tảng tính toán song song và mô hình lập trình do Nvidia giới thiệu từ năm 2006. Nó cho phép nhà phát triển gọi trực tiếp sức mạnh của GPU Nvidia để tăng tốc các nhiệm vụ tính toán phức tạp.

Trước khi thời đại AI bùng nổ, CUDA chỉ là công cụ của một số ít kỹ thuật viên cực kỳ am hiểu. Nhưng khi làn sóng học sâu trỗi dậy, CUDA trở thành nền móng của toàn bộ ngành AI.

Việc huấn luyện các mô hình lớn về bản chất là thực hiện hàng tỷ phép tính ma trận. Và đây chính là thế mạnh của GPU.

Nhờ vào việc đầu tư từ hơn chục năm trước, Nvidia đã dùng CUDA xây dựng một hệ sinh thái toàn diện, từ phần cứng nền tảng đến các ứng dụng cao cấp cho cộng đồng AI toàn cầu. Hiện tại, tất cả các framework AI phổ biến nhất thế giới, từ TensorFlow của Google đến PyTorch của Meta, đều liên kết chặt chẽ với CUDA.

Một tiến sĩ chuyên ngành AI, từ ngày nhập học, đã học, lập trình và thử nghiệm trong môi trường CUDA. Mỗi dòng code của họ đều góp phần củng cố “vách thành” của Nvidia.

Tính đến năm 2025, hệ sinh thái CUDA đã có hơn 4,5 triệu nhà phát triển, hơn 3.000 ứng dụng tăng tốc GPU, hơn 40.000 công ty toàn cầu đang sử dụng CUDA. Điều này có nghĩa là hơn 90% nhà phát triển AI toàn cầu đều gắn bó với hệ sinh thái Nvidia.

Điều đáng sợ của CUDA là nó như một chiếc bánh đà. Càng nhiều nhà phát triển dùng, sẽ sinh ra nhiều công cụ, thư viện, mã nguồn hơn nữa, làm cho hệ sinh thái càng ngày càng phát triển rực rỡ; hệ sinh thái càng phát triển, càng thu hút thêm nhiều nhà phát triển mới. Khi chiếc bánh đà này đã quay, gần như không thể dừng lại.

Kết quả là Nvidia bán cho bạn chiếc xẻng đắt nhất, còn định nghĩa luôn tư thế khai thác duy nhất. Bạn muốn đổi chiếc xẻng khác? Được. Nhưng trước đó, bạn phải viết lại toàn bộ kinh nghiệm, công cụ, mã nguồn của hàng trăm nghìn bộ óc thông minh nhất thế giới trong hơn chục năm qua, dưới tư thế đó.

Chi phí này ai sẽ gánh?

Vì vậy, khi ngày 7 tháng 10 năm 2022, lệnh kiểm soát đầu tiên của BIS được thực thi, hạn chế xuất khẩu A100 và H100 của Nvidia sang Trung Quốc, các công ty AI Trung Quốc lần đầu tiên cảm nhận rõ cảm giác nghẹt thở kiểu Trung Tín. Nvidia sau đó ra mắt các phiên bản đặc biệt dành riêng cho Trung Quốc là A800 và H800, giảm băng thông liên kết giữa các chip, tạm thời duy trì cung cấp.

Nhưng chỉ sau một năm, ngày 17 tháng 10 năm 2023, vòng kiểm soát thứ hai siết chặt hơn, A800 và H800 bị cấm, 13 công ty Trung Quốc bị đưa vào danh sách thực thể. Nvidia buộc phải ra mắt phiên bản H20 bị cắt giảm hơn nữa. Đến tháng 12 năm 2024, vòng kiểm soát cuối cùng trong nhiệm kỳ của chính quyền Biden được ban hành, thậm chí xuất khẩu H20 cũng bị hạn chế nghiêm ngặt.

Ba vòng kiểm soát, từng bước siết chặt.

Nhưng lần này, diễn biến câu chuyện hoàn toàn khác với Trung Tín ngày xưa.

Dưới lệnh cấm, ai cũng nghĩ rằng giấc mơ về các mô hình lớn của AI Trung Quốc sẽ chấm dứt tại đây.

Nhưng họ đã nhầm. Đối mặt với phong tỏa, các công ty Trung Quốc không chọn đối đầu trực diện, mà bắt đầu một cuộc vượt thoát. Chiến trường đầu tiên của cuộc vượt thoát này không phải chip, mà là thuật toán.

Từ cuối 2024 đến 2025, các công ty AI Trung Quốc đồng loạt chuyển hướng sang một công nghệ mới: mô hình hỗn hợp chuyên gia.

Nói đơn giản, là chia nhỏ một mô hình khổng lồ thành nhiều chuyên gia nhỏ, khi xử lý nhiệm vụ chỉ kích hoạt những chuyên gia phù hợp nhất, chứ không để toàn bộ mô hình vận hành.

V3 của DeepSeek chính là ví dụ tiêu biểu của ý tưởng này. Nó có tới 671 tỷ tham số, nhưng mỗi lần suy luận chỉ kích hoạt 37 tỷ, chiếm chưa đến 6% tổng số. Về chi phí huấn luyện, nó dùng 2.048 GPU H800 của Nvidia, huấn luyện trong 58 ngày, tổng chi phí khoảng 5,576 triệu USD. So với ước tính chi phí huấn luyện GPT-4 khoảng 78 triệu USD, chênh lệch một cấp độ rõ ràng.

Tối ưu thuật toán cực đoan này trực tiếp phản ánh vào giá thành. Giá API của DeepSeek, mỗi triệu token đầu vào chỉ từ 0,028 đến 0,28 USD, đầu ra là 0,42 USD. Trong khi đó, GPT-4 của OpenAI, giá đầu vào là 5 USD, đầu ra 15 USD. Claude Opus còn đắt hơn, đầu vào 15 USD, đầu ra 75 USD. Tính ra, DeepSeek rẻ hơn Claude từ 25 đến 75 lần.

Chênh lệch giá này gây chấn động lớn trong thị trường nhà phát triển toàn cầu. Tháng 2 năm 2026, trên nền tảng API tổng hợp AI lớn nhất thế giới là OpenRouter, số lượt gọi mô hình Trung Quốc trong vòng 3 tuần đã tăng 127%, lần đầu vượt Mỹ. Cách đó một năm, thị phần mô hình Trung Quốc trên OpenRouter chưa đến 2%. Sau một năm, tăng trưởng 421%, gần 60%.

Phía sau con số này, có một biến đổi cấu trúc dễ bị bỏ qua. Từ nửa cuối 2025, các ứng dụng AI chính thống chuyển từ trò chuyện sang Agent. Trong bối cảnh Agent, lượng token tiêu thụ cho mỗi nhiệm vụ cao gấp 10 đến 100 lần so với trò chuyện đơn giản. Khi lượng token tiêu thụ tăng theo cấp số nhân, giá thành trở thành yếu tố quyết định. Đúng vào thời điểm này, mô hình Trung Quốc có tỷ lệ giá/hiệu quả cực tốt, đúng vào điểm chốt của cơ hội này.

Nhưng vấn đề là, giảm chi phí suy luận không giải quyết được vấn đề cốt lõi của huấn luyện. Một mô hình lớn nếu không thể liên tục huấn luyện, cập nhật dữ liệu mới, khả năng của nó sẽ nhanh chóng suy giảm. Và huấn luyện vẫn là cái hố đen về sức mạnh tính toán không thể thoát khỏi.

Vậy, chiếc xẻng để huấn luyện đến từ đâu?

Ở thành phố Tân Châu, tỉnh Giang Tô, một thị trấn nhỏ của miền trung sông Dương Tử, trước đây nổi tiếng về thép không gỉ và thực phẩm sạch, chưa từng liên quan gì đến AI. Nhưng năm 2025, một dây chuyền sản xuất máy chủ tính toán nội địa dài 148 mét đã được xây dựng và vận hành tại đây, từ ký hợp đồng đến vận hành chỉ mất 180 ngày.

Trung tâm sản xuất này trung tâm là hai loại chip hoàn toàn nội địa: Vi xử lý Longxin 3C6000 và card tăng tốc AI Taichu Yuanqi T100. Longxin 3C6000 được tự nghiên cứu toàn bộ từ kiến trúc lệnh đến vi kiến trúc. Taichu Yuanqi phát triển dựa trên trung tâm siêu tính toán Wuxi của quốc gia và nhóm của Đại học Tsinghua, sử dụng kiến trúc đa nhân dị thể.

Khi hoạt động hết công suất, mỗi 5 phút ra một máy chủ. Tổng vốn đầu tư của dây chuyền này là 1,1 tỷ nhân dân tệ, dự kiến sản xuất 100.000 máy mỗi năm.

Quan trọng hơn, dựa trên các chip nội địa này, đã bắt đầu nhận các nhiệm vụ huấn luyện mô hình lớn thực sự.

Tháng 1 năm 2026, Zhipu AI phối hợp Huawei ra mắt GLM-Image, mô hình tạo ảnh SOTA đầu tiên hoàn toàn dựa trên chip nội địa, thực hiện huấn luyện toàn trình. Tháng 2, mô hình “Tinh Tú” của China Telecom, trị giá hàng trăm tỷ, đã hoàn tất huấn luyện toàn bộ quy trình trên hệ thống máy chủ nội địa tại cảng Thượng Hải.

Những ví dụ này chứng minh một điều: chip nội địa đã vượt qua giới hạn chỉ dùng để suy luận, để bước vào giai đoạn huấn luyện. Đây là bước biến đổi chất. Suy luận chỉ cần chạy mô hình đã huấn luyện sẵn, yêu cầu phần cứng thấp hơn nhiều; còn huấn luyện, xử lý lượng dữ liệu khổng lồ, tính toán đạo hàm phức tạp, cập nhật tham số, đòi hỏi sức mạnh tính toán, băng thông liên kết và hệ sinh thái phần mềm cao hơn gấp nhiều lần.

Lực lượng trung tâm đảm nhận nhiệm vụ này chính là dòng chip Ascend của Huawei. Đến cuối 2025, hệ sinh thái Ascend đã có hơn 4 triệu nhà phát triển, hơn 3.000 đối tác, 43 mô hình lớn trong ngành đã huấn luyện sơ bộ dựa trên Ascend, hơn 200 mô hình mã nguồn mở đã thích ứng. Tại Hội nghị MWC ngày 2 tháng 3 năm 2026, Huawei còn ra mắt nền tảng tính toán mới SuperPoD dành cho thị trường quốc tế.

FP16 của Ascend 910B đã sánh ngang A100 của Nvidia. Dù vẫn còn chênh lệch, nhưng đã từ không thể dùng thành có thể dùng, từ có thể dùng tiến tới dễ dùng. Xây dựng hệ sinh thái không thể đợi chip hoàn hảo mới bắt đầu, mà phải mở rộng quy mô ngay khi đủ dùng, dùng nhu cầu thực tế để thúc đẩy quá trình cải tiến chip và phần mềm. Các công ty như ByteDance, Tencent, Baidu đều dự kiến tăng gấp đôi nhập khẩu máy chủ tính toán nội địa vào năm 2026 so với năm trước. Theo số liệu của Bộ Công Thương, quy mô tính toán trí tuệ nhân tạo của Trung Quốc đã đạt 1590 EFLOPS. Năm 2026, sẽ trở thành năm khởi đầu cho quy mô triển khai nội địa.

Đầu năm 2026, bang Virginia, nơi chứa lượng lớn lưu lượng dữ liệu trung tâm toàn cầu, tạm dừng phê duyệt các dự án xây dựng trung tâm dữ liệu mới. Bang Georgia theo sau, tạm dừng phê duyệt đến năm 2027. Các bang Illinois, Michigan cũng lần lượt ban hành các biện pháp hạn chế.

Theo Cơ quan Năng lượng Quốc tế, năm 2024, lượng điện tiêu thụ của các trung tâm dữ liệu Mỹ đã đạt 183 TWh, chiếm khoảng 4% tổng điện năng quốc gia. Đến năm 2030, dự kiến sẽ tăng gấp đôi lên 426 TWh, chiếm hơn 12%. CEO Arm dự đoán, đến năm 2030, trung tâm dữ liệu AI sẽ tiêu thụ 20-25% điện năng của Mỹ.

Hệ thống điện của Mỹ đã quá tải. Mạng lưới PJM, bao phủ 13 bang phía Đông, đang thiếu hụt 6 GW công suất. Đến năm 2033, tổng thiếu hụt năng lượng của Mỹ sẽ là 175 GW, tương đương lượng điện tiêu thụ của 130 triệu hộ gia đình. Chi phí điện thương phẩm tại các khu vực trung tâm dữ liệu đã tăng 267% so với năm năm trước.

Điểm cuối của sức mạnh tính toán chính là năng lượng. Và trong chiều hướng này, khoảng cách giữa Trung Quốc và Mỹ còn lớn hơn cả chip, chỉ là theo chiều ngược lại.

Năng lượng điện của Trung Quốc mỗi năm là 10,4 nghìn tỷ kWh, của Mỹ là 4,2 nghìn tỷ kWh, Trung Quốc gấp 2,5 lần Mỹ. Quan trọng hơn, điện sinh hoạt của người dân Trung Quốc chỉ chiếm 15% tổng điện năng, còn của Mỹ là 36%. Điều này có nghĩa là Trung Quốc còn dư thừa năng lượng công nghiệp để đầu tư xây dựng sức mạnh tính toán.

Về giá điện, các khu vực tập trung AI của Mỹ có giá khoảng 0,12 đến 0,15 USD mỗi kWh, trong khi điện công nghiệp ở phía Tây Trung Quốc chỉ khoảng 0,03 USD, bằng một phần tư đến một phần năm của Mỹ.

Tăng trưởng điện của Trung Quốc đã đạt gấp 7 lần Mỹ.

Trong khi Mỹ lo lắng về điện năng, thì AI Trung Quốc đang âm thầm vươn ra thế giới. Nhưng lần này, không phải sản phẩm, không phải nhà máy, mà là Token.

Token, đơn vị nhỏ nhất để xử lý thông tin của mô hình AI, đang trở thành một loại hàng hóa số mới. Nó được sản xuất từ các nhà máy tính nội địa của Trung Quốc, rồi truyền qua cáp quang dưới biển đến toàn cầu.

Dữ liệu phân bổ người dùng của DeepSeek rất rõ ràng: nội địa Trung Quốc chiếm 30,7%, Ấn Độ 13,6%, Indonesia 6,9%, Mỹ 4,3%, Pháp 3,2%. Nó hỗ trợ 37 ngôn ngữ, rất phổ biến ở các thị trường mới nổi như Brazil. Toàn cầu có 26.000 doanh nghiệp mở tài khoản, 3.200 tổ chức triển khai phiên bản doanh nghiệp.

Năm 2025, 58% các công ty khởi nghiệp AI mới đã đưa DeepSeek vào hệ thống công nghệ của mình. Ở Trung Quốc, DeepSeek chiếm 89% thị phần. Trong các quốc gia bị cấm vận khác, thị phần dao động từ 40% đến 60%.

Cảnh tượng này rất giống với cuộc chiến về chủ quyền công nghiệp cách đây hơn bốn mươi năm.

Năm 1986, Tokyo dưới sức ép mạnh mẽ của Mỹ đã ký kết “Hiệp định bán dẫn Mỹ-Nhật”. Ba điều khoản chính của hiệp định: yêu cầu Nhật mở cửa thị trường bán dẫn, thị phần chip Mỹ tại Nhật phải đạt trên 20%; cấm Nhật xuất khẩu bán dẫn với giá thấp hơn giá thành; đánh thuế trừng phạt 100% đối với các chip trị giá 300 triệu USD xuất khẩu sang Nhật. Đồng thời, Mỹ phủ quyết việc Fujitsu mua lại Quick Semiconductor.

Năm đó, ngành bán dẫn Nhật đang ở đỉnh cao. Đến năm 1988, Nhật kiểm soát 51% thị trường bán dẫn toàn cầu, Mỹ chỉ còn 36,8%. Trong top 10 công ty bán dẫn lớn nhất thế giới, Nhật chiếm 6 vị trí: NEC thứ hai, Toshiba thứ ba, Hitachi thứ năm, Fujitsu thứ bảy, Mitsubishi thứ tám, Panasonic thứ chín. Năm 1985, Intel thua lỗ 173 triệu USD trong cuộc chiến bán dẫn Mỹ-Nhật, gần phá sản.

Nhưng sau khi ký hiệp định, mọi thứ thay đổi.

Mỹ dùng các biện pháp như điều tra 301 để toàn diện áp chế các doanh nghiệp bán dẫn Nhật. Đồng thời, hỗ trợ Samsung, Hynix của Hàn Quốc, dùng giá thấp hơn để đẩy mạnh thị phần Nhật. Thị phần DRAM của Nhật từ 80% giảm còn 10%. Đến năm 2017, thị phần IC của Nhật chỉ còn 7%. Những ông lớn từng oai phong một thời, hoặc bị chia cắt, hoặc bị mua lại, hoặc rút lui trong thất bại kéo dài.

Bi kịch của ngành bán dẫn Nhật là, họ chỉ hài lòng làm nhà sản xuất xuất sắc trong một hệ thống phân công toàn cầu do một thế lực bên ngoài chi phối, mà chưa từng nghĩ đến xây dựng hệ sinh thái độc lập của riêng mình. Khi dòng chảy chậm lại, họ mới nhận ra, ngoài sản xuất, họ chẳng còn gì.

Ngày nay, ngành AI Trung Quốc đang đứng trước một ngã rẽ tương tự, nhưng hoàn toàn khác biệt.

Điểm giống là, chúng ta cũng đang đối mặt với áp lực khổng lồ từ bên ngoài. Ba vòng kiểm soát chip, từng bước siết chặt, rào cản hệ sinh thái CUDA vẫn còn cao chót vót.

Khác biệt là, lần này, chúng ta chọn con đường khó hơn. Từ tối ưu thuật toán cực đoan, đến bước nhảy từ suy luận sang huấn luyện chip nội địa, rồi đến việc xây dựng hệ sinh thái Ascend với hơn 4 triệu nhà phát triển, rồi xuất khẩu Token ra thị trường toàn cầu. Mỗi bước đi trên con đường này đều đang xây dựng một hệ sinh thái công nghiệp độc lập mà Nhật chưa từng có.

Ngày 27 tháng 2 năm 2026, cùng ngày, ba báo cáo kết quả kinh doanh của các công ty chip nội địa trong ngành AI được công bố.

Cambricon, doanh thu tăng vọt 453%, lần đầu đạt lợi nhuận cả năm. Moore Threads, doanh thu tăng 243%, nhưng lỗ ròng 1 tỷ USD. Mu Xi, doanh thu tăng 121%, lỗ gần 800 triệu USD.

Một nửa là lửa, một nửa là biển cả.

Lửa là sự đói khát mãnh liệt của thị trường. Khoảng trống 95% mà Jensen Huang để lại đang dần được lấp đầy bằng doanh thu của các công ty nội địa này, từng chút một. Dù hiệu năng thế nào, dù hệ sinh thái ra sao, thị trường vẫn cần một lựa chọn thứ hai ngoài Nvidia. Đây là cơ hội mang tính cấu trúc, hiếm có do chính trị địa lý mở ra.

Biển cả là chi phí xây dựng hệ sinh thái khổng lồ. Mỗi khoản lỗ đều là tiền thật bỏ ra để đuổi theo hệ sinh thái CUDA. Là đầu tư R&D, là trợ cấp phần mềm, là nhân lực kỹ sư cử đi tận nơi khách hàng, từng người một giải quyết các vấn đề biên dịch. Những khoản lỗ này không phải do quản lý kém, mà là thuế chiến tranh bắt buộc phải trả để xây dựng hệ sinh thái độc lập.

Ba báo cáo tài chính này trung thực hơn bất kỳ báo cáo ngành nào về bức tranh của cuộc chiến sức mạnh tính toán. Nó không phải chiến thắng rực rỡ, mà là cuộc chiến khốc liệt, vừa chảy máu vừa tiến lên từng bước.

Nhưng hình thái chiến tranh đã thực sự thay đổi. Tám năm trước, chúng ta bàn về câu hỏi “có thể sống sót hay không”. Còn hôm nay, chúng ta bàn về câu hỏi “để sống còn, phải trả giá bao nhiêu”.

Giá trị của cái giá chính là sự tiến bộ.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận