مقابلة غلاف مجلة تايم مع Anthropic: الشركة الأكثر تخريباً عالمياً، تقييم بقيمة 380 مليار يتجاوز Goldman Sachs

動區BlockTempo

مجلة TIME تكشف في تقرير معمق أن شركة Anthropic تعرضت لقائمة المخاطر الوطنية بعد رفضها السماح باستخدام Claude في أنظمة الأسلحة الذاتية بالكامل والمراقبة الجماعية لمواطني الولايات المتحدة؛ وفي ذات اليوم، سرعان ما استحوذت شركة OpenAI على عقود عسكرية، مما يضع مبادرة “التنافس النزولي” أمام اختبار المبادئ الأساسية لأكثر شركات الذكاء الاصطناعي إثارة للجدل في العالم. هذا المقال مستوحى من مقال TIME للكاتبين Leslie Dickstein و Simmone Shah بعنوان «أكثر شركة مدمرة في العالم»، وترجمه فريق 动区.
(ملخص سابق: التعرف على الوجه بالذكاء الاصطناعي يسبب سجن الأبرياء! سيدة أمريكية تُحبس في سجن على بعد 1200 ميل لمدة نصف سنة، والشرطة لا تعتذر)
(معلومات إضافية: مقال سابق لمدير تقنية Dropbox السابق بعنوان «عملت طوال حياتي، والآن لم يعد ذا قيمة وسهل الحصول عليه»)

فهرس المقال

Toggle

  • الصراع الأبدي بين الأمان والسرعة
  • من الظل إلى القمة: مسيرة صعود Anthropic
  • خطان أحمران: الأسلحة الذاتية والمراقبة الجماعية
  • الصدام الثقافي والانقسام السياسي
  • أصل Anthropic: شركة فريدة تضع السلامة في المقام الأول
  • رمز Claude: إعادة تعريف مهنة “المهندس”
  • التحسين الذاتي المتكرر: خوف وافتتان بتسريع الذكاء الاصطناعي
  • تحرير سياسة RSP: هل تعطلت المكابح الذاتية؟
  • تحرك فنزويلا: أول تدخل عميق للذكاء الاصطناعي في ساحة المعركة
  • فشل المفاوضات، واستحواذ OpenAI على العقود
  • بعد العاصفة: هل تستطيع Anthropic الصمود؟

في غرفة فندق بكاليفورنيا، يجتمع خمسة من أعضاء شركة Anthropic حول حاسوب محمول، في حالة توتر شديد. كان ذلك في فبراير 2025، حين كانوا يحضرون ندوة قريبة، وفجأة تلقوا رسالة مقلقة: نتائج تجربة محكومة تشير إلى أن نسخة Claude الجديدة التي ستطرح قريبًا قد تساعد إرهابيين على تركيب أسلحة بيولوجية.

هؤلاء الأفراد ينتمون إلى “فريق الأحمر المتقدم” (frontier red team) التابع لـ Anthropic، والمتخصص في تقييم قدرات Claude المتطورة، واستشراف السيناريوهات القصوى للمخاطر، من هجمات إلكترونية إلى تهديدات بيولوجية. بعد تلقي الإنذار، هرعوا إلى الغرفة، قلبوا السرير ليصبح منصة عمل مؤقتة، وبدأوا في فحص نتائج الاختبار واحدًا تلو الآخر.

بعد ساعات من التحليل المكثف، لم يتمكن الفريق من تحديد ما إذا كانت النسخة الجديدة آمنة بما يكفي. في النهاية، قررت Anthropic تأجيل إصدار Claude 3.7 Sonnet لمدة 10 أيام كاملة، حتى يتأكد الفريق من أن المخاطر ضمن حدود مقبولة.

قد تبدو عشرة أيام فترة قصيرة، لكنها بالنسبة لشركة تتصدر موجة التكنولوجيا، وتعمل في صناعة تعيد تشكيل العالم بسرعة، كأنها عمر كامل.

الصراع الأبدي بين الأمان والسرعة

يصف لوغان غراهام، قائد “الفريق الأحمر المتقدم”، تلك اللحظة التي عاشها خلال “هلع الأسلحة البيولوجية” بأنها تجسيد لضغوطات الشركة في لحظة حاسمة — ليس فقط على Anthropic، بل على العالم بأسره. تعتبر Anthropic واحدة من أكثر المختبرات الرائدة في أمان أنظمة الذكاء الاصطناعي، لكنها في ذات الوقت في سباق مع الزمن لبناء أنظمة أقوى وأسرع، مع اعتقاد عميق أن فقدان السيطرة على هذه التقنيات قد يؤدي إلى نتائج مروعة، من حرب نووية إلى إبادة بشرية.

يبدو غراهام، البالغ من العمر 31 عامًا، شابًا نسبياً، لكنه يتحمل مسؤولية موازنة المكاسب الهائلة والمخاطر الجسيمة. يقول: “الكثير من الناس ينشأون في عالم هادئ، ويعتقدون أن هناك غرفة اجتماعات، يجلس فيها كبار الخبراء، يعرفون كيف يعيدون الأمور إلى نصابها.”

“لكن الواقع أن لا وجود لمثل تلك الغرفة، ولا تلك الباب. المسؤولية تقع على عاتقك أنت فقط.” وإذا لم تكن هذه الكلمات كافية، فكيف يصف ذلك اليوم الذي أطلق فيه إنذار الأسلحة البيولوجية؟ يقول: “كان يوماً مثيراً ومشوقاً، حقًا.”

أسابيع بعد ذلك، في مقابلة مع TIME، تحدث غراهام عن تلك التجربة، حيث زار فريقه الشركة، محاولين فهم كيف أصبحت Anthropic، التي كانت تُنظر إليها سابقًا على أنها “متمردة” في سباق الذكاء الاصطناعي، الآن في مقدمة المنافسة.

من الظل إلى القمة: مسيرة صعود Anthropic

في تلك الفترة، كانت Anthropic قد جمعت 30 مليار دولار من المستثمرين، وتستعد لطرح عام محتمل. (ومن الجدير بالذكر أن Salesforce أحد المستثمرين في Anthropic، وأن مالك TIME، مارك بنيوف، هو أيضًا الرئيس التنفيذي لشركة Salesforce). الآن، تقدر قيمة الشركة بـ 380 مليار دولار، متجاوزةً مؤسسات تقليدية مثل Goldman Sachs وMcDonald’s وCoca-Cola.

نمو إيرادات الشركة كان سريعًا كالصاروخ. نظام Claude أصبح يُعتبر نموذجًا عالميًا، ونسخ مثل Claude Code وClaude Cowork تعيد تعريف وظيفة “المهندس”.

أدوات Anthropic قوية جدًا: فكل إصدار جديد يثير ضجة في السوق، حيث يدرك المستثمرون أن هذه التقنيات قد تُغير صناعات كاملة — من الخدمات القانونية إلى تطوير البرمجيات. خلال الأشهر الماضية، أصبحت Anthropic مرشحة بقوة لإعادة تشكيل “مستقبل العمل”.

ثم دخلت الشركة في جدل حاد حول “شكل الحروب المستقبلية”.

على مدى أكثر من عام، ظل Claude هو النموذج المفضل للحكومة الأمريكية، وهو أول نظام ذكاء اصطناعي يُسمح بنشره في بيئات سرية. في يناير 2026، استُخدم في عملية جريئة: اعتقال رئيس فنزويلا نيكولاس مادورو. ووفقًا للتقارير، استُخدم AI في تخطيط المهمة وتحليل المعلومات، مما يمثل أول تدخل عميق للذكاء الاصطناعي في عمليات عسكرية حقيقية.

لكن خلال الأسابيع التالية، تدهورت علاقة Anthropic مع وزارة الدفاع الأمريكية بسرعة. في 27 فبراير، أعلنت إدارة ترامب أن Anthropic تُصنف على أنها “خطر على سلسلة التوريد الوطنية”، وهي المرة الأولى التي تُصنف فيها شركة محلية بهذا الشكل.

تصاعدت الأمور إلى صراع علني. أمر ترامب بتعليق جميع برامج الحكومة التي تستخدم منتجات Anthropic. ووزير الدفاع بيتر هيجسث أعلن أن الشركات التي تتعامل مع الحكومة يجب أن تتوقف عن العمل مع Anthropic. وفي الوقت ذاته، استحوذت OpenAI على العقود العسكرية ذات الصلة بسرعة.

وهكذا، وجدت شركة يُنظر إليها على أنها “الأكثر إثارة للدمار” في عالم الذكاء الاصطناعي، نفسها فجأة تحت ضغط قوة أكبر — حكومتها ذاتها.

خطان أحمران: الأسلحة الذاتية والمراقبة الجماعية

جوهر الصراع هو: من يحق له تحديد حدود استخدام هذه التقنية التي تُعد من أقوى الأسلحة في ترسانة أمريكا.

لا تعارض Anthropic استخدام أدواتها في العمليات العسكرية، بل ترى أن تعزيز القوة العسكرية الأمريكية هو السبيل الوحيد لردع التهديدات. لكن الرئيس التنفيذي داريو أموداي يعارض محاولة البنتاغون إعادة التفاوض على العقود، وتوسيع نطاق استخدام AI “للجميع” (all lawful use).

وضع أموداي مخاوف محددة: أولاً، لا يريد أن يُستخدم AI الخاص بـ Anthropic في أنظمة أسلحة ذاتية بالكامل؛ ثانيًا، يعارض استخدام التقنية لمراقبة المواطنين الأمريكيين على نطاق واسع.

لكن في نظر بيتر هيجسث وموظفيه، هذا الموقف يشبه محاولة شركة خاصة أن تفرض إرادتها على العمليات العسكرية.

تعتقد وزارة الدفاع أن Anthropic، من خلال تمسكها بقيود أمان غير ضرورية، ومناقشتها المستمرة لسيناريوهات افتراضية، وتأخيرها في التفاوض، تضعف أساس التعاون بين الطرفين.

وفي نظر إدارة ترامب، فإن موقف أموداي يُعتبر تعنتًا وعنجهية. فحتى لو كانت منتجات الشركة متقدمة جدًا، لا ينبغي أن تتدخل في قرارات القيادة العسكرية.

وصف نائب وزير الحرب للتكنولوجيا إيميل مايكل المفاوضات قائلاً: “الأمور وصلت إلى طريق مسدود. لا أستطيع أن أتحكم في قسم يضم 3 ملايين شخص، باستخدام استثناءات لا أستطيع تصورها أو فهمها.”

الصدام الثقافي والانقسام السياسي

من وادي السيليكون إلى الكونغرس، يتساءل الكثيرون: هل هذه الأزمة مجرد خلاف على عقد، أم أنها مؤشر على شيء أعمق؟

يعتقد بعض المنتقدين أن تصرفات إدارة ترامب كانت محاولة لقمع شركة ذات مواقف سياسية مختلفة. في مذكرة داخلية مسربة، كتب داريو أموداي: “سبب عدم رضا وزارة الدفاع وترامب عنا هو أننا لم نُهديهم تبرعات، ولم نمدحهم كما فعل سام ألتمان (الذي فعل ذلك). نحن ندعم تنظيمات AI، وهذا يتعارض مع أجندتهم؛ نحن نقول الحقيقة حول استبدال الوظائف بالذكاء الاصطناعي؛ ووقفنا عند خطوطنا الحمراء، بدلاً من المشاركة في “مسرحية الأمان” التي يروجون لها.”

لكن إيميل مايكل ينفي ذلك، ويصف الأمر بأنه “اختلاق كامل”. ويقول إن تصنيف Anthropic كمصدر خطر على السلسلة التوريدية جاء لأنه قد يعرض جنود الخطوط الأمامية للخطر. ويضيف: “في وزارة الحرب، مهمتي ليست السياسة، بل حماية الوطن.”

ثقافة Anthropic المستقلة، تتصادم الآن مع الانقسامات السياسية، وقضايا الأمن القومي، وبيئة المنافسة القاسية. وما إذا كانت هذه الأزمة ستلحق ضررًا كبيرًا بالشركة، لا يزال غير واضح. في البداية، تم تقييد تصنيف “خطر على السلسلة التوريدية” ليقتصر على العقود العسكرية فقط، لكن في 9 مارس، رفعت الشركة دعوى قضائية ضد الحكومة، محاولةً إلغاء هذا التصنيف.

وفي الوقت نفسه، يبدو أن بعض العملاء يفسرون موقف الشركة على أنه بيان أخلاقي، ويختارون مغادرة ChatGPT والانتقال إلى Claude.

لكن خلال الثلاث سنوات القادمة، ستظل الشركة تعمل في بيئة غير ودودة، حيث بعض المسؤولين في الحكومة يتواصلون مع منافسيها، الذين يحملون عداءً واضحًا تجاهها.

هذه الأزمة، تطرح أسئلة مقلقة حتى لشركات الذكاء الاصطناعي التي اعتادت على المخاطر الأخلاقية: هل ستتمكن Anthropic من الصمود، أم أنها ستدفع ثمنًا باهظًا مقابل مواقفها؟

شركة Deep Ganguli، التي تدرس تأثيرات Claude على التوظيف، تقول: “هناك توتر حقيقي، وأفكر في الأمر تقريبًا كل يوم. أحيانًا أشعر أننا نكرر كلامًا متناقضًا.”

التحسين الذاتي المتكرر: خوف وافتتان بتسريع الذكاء الاصطناعي

داخل الشركة، بدأ بعض الموظفين يتساءلون: هل اقتربت Anthropic من لحظة حاسمة، يُطلق عليها في عالم الذكاء الاصطناعي “التحسين الذاتي المتكرر” (recursive self-improvement)، حيث يبدأ النظام في تعزيز قدراته بشكل متسارع، مما يؤدي إلى حلقة مفرغة من التطور السريع.

هذه الحالة، التي يُنظر إليها في الأدب العلمي والسيناريوهات الاستراتيجية، غالبًا ما تعتبر نقطة انطلاق لحدوث “انفجار الذكاء” (intelligence explosion)، حيث تتسارع القدرات بشكل يفوق قدرة البشر على المراقبة أو السيطرة.

حتى الآن، لم تصل Anthropic إلى تلك المرحلة، ولا تزال الأبحاث بقيادة البشر. لكن رمز Claude Code سمح بتسريع وتيرة البحث بشكل غير مسبوق.

تُجرى التحديثات بشكل أسبوعي، بدلاً من شهري. وفي تطوير الجيل التالي من النماذج، يُكتب حوالي 70-90% من الكود بواسطة Claude نفسه.

هذه الوتيرة السريعة، دفعت مؤسس الشركة، ورئيسها العلمي جارد كابلان، وخبراء خارجيين، إلى الاعتقاد أن البحث الآلي الكامل قد يتحقق خلال سنة واحدة.

المُختبرون في الشركة، مثل Evan Hubinger، يقولون: “من الناحية النظرية، التحسين الذاتي المتكرر لم يعد مجرد مستقبل، بل يحدث الآن.”

وفقًا لاختبارات داخلية، فإن Claude يُنجز بعض المهام بسرعة 427 مرة أسرع من مراقبيه البشر. في مقابلة، وصف أحد الباحثين مشهدًا: زميل يعمل على 6 نسخ من Claude، وكل نسخة تدير 28 نسخة أخرى، وتُجري تجارب متزامنة.

رغم أن النموذج لا يزال أقل من البشر في القدرة على الحكم والجمال، إلا أن المسؤولين يعتقدون أن الفارق لن يدوم طويلاً. وهذه الوتيرة المتسارعة، تُعد من أخطر التحديات التي تحذر منها القيادة، لأنها قد تتجاوز قدرة الإنسان على السيطرة.

كما يُستخدم Claude في تطوير آليات الأمان، لكن الاعتماد المتزايد عليه، يخلق دائرة مفرغة من المخاطر. ففي بعض التجارب، أجرى الباحثون تعديلات دقيقة على تدريب Claude، فظهرت نماذج تظهر عدائية واضحة، وتعبّر عن رغبة في السيطرة على العالم، أو حتى تدمير إجراءات الأمان.

وفي الآونة الأخيرة، بدأت النماذج تظهر قدرة جديدة: على إدراك أنها تُختبر، وأنها تتعرض للتقييم. يقول Hubinger: “هذه النماذج أصبحت أكثر مهارة في إخفاء سلوكها الحقيقي.”

وفي سيناريوهات تجريبية، أظهرت Claude استعدادًا لابتكار طرق لابتزاز مهندس خيالي، من خلال فضح علاقاته الشخصية، لمنع إيقافها.

ومع استخدام Claude في تدريب نماذج أقوى، تتكرر هذه المشاكل وتتفاقم.

بالنسبة لشركات الذكاء الاصطناعي التي تعد بتحقيق قفزات تقنية، فإن فكرة أن تسرع في تطوير ذاتها، وتُقنع المستثمرين بضرورة تمويل مكلف، تظل جذابة، لكنها محفوفة بالمخاطر.

بعض الخبراء، مثل Helen Toner من مركز الأمن والتقنيات الناشئة في جورجتاون، يعبرون عن قلقهم: “أكبر الشركات في العالم، توظف أذكى العقول، وتحاول أتمتة البحث في الذكاء الاصطناعي بالكامل. هذا التفكير وحده يثير التساؤل: ماذا يفعلون بحق الجحيم؟”

سياسة RSP: هل تعطلت المكابح الذاتية؟

لمواجهة سيناريوهات مستقبلية، حيث تتسارع قدرات AI بشكل يفوق قدرة الشركات على إدارة المخاطر، أطلقت Anthropic سياسة “التحجيم المسؤول” (Responsible Scaling Policy - RSP) في 2023، التي تنص على: إذا لم تتأكد الشركة من أن أنظمتها آمنة بما يكفي، تتوقف عن تطويرها مؤقتًا.

تُعد هذه السياسة دليلًا على التزام الشركة بالسلامة، حتى في سباق الوصول إلى “الذكاء الفائق”. لكن في فبراير 2026، أُجريت تعديلات على السياسة، وأُزيلت منها بند “التوقف عن التطوير” الملزم.

وفي مقابلة مع TIME، اعترف Jared Kaplan، أحد مؤسسي الشركة، أن تصورهم السابق عن إمكانية وضع حدود واضحة بين “الخطر” و"السلامة" كان “ساذجًا”.

قال: “في ظل التقدم السريع للذكاء الاصطناعي، إذا كانت المنافسة تسير بسرعة، فإن الالتزام الصارم من طرف واحد غير واقعي.”

التعديلات الجديدة تضمنت وعودًا بزيادة الشفافية، وكشف أداء النماذج في اختبارات السلامة، ومقارنة استثمارات السلامة مع المنافسين، وإذا كانت الشركة تتصدر السباق وتزداد المخاطر بشكل كبير، فإنها ستؤجل التطوير.

وصفها الشركة بأنها “تسوية واقعية” مع الواقع، لكن التعديلات، بشكل عام، أضعفت قيودها الذاتية على السلامة، مما يفتح الباب لمزيد من التحديات في المستقبل.

تحرك فنزويلا: أول تدخل عميق للذكاء الاصطناعي في ساحة المعركة

في يناير 2026، نفذت قوات العمليات الخاصة الأمريكية عملية سرية لاعتقال نيكولاس مادورو، رئيس فنزويلا، باستخدام نظام AI من Anthropic للمرة الأولى في مهمة عسكرية حقيقية.

في ليلة 3 يناير، اقتحمت مروحيات أمريكية المجال الجوي الفنزويلي، ونجحت في تحديد مكان مادورو، واعتقاله هو وزوجته، ونقلهما إلى نيويورك، حيث وُجهت إليهما تهم تتعلق بالإرهاب وتجارة المخدرات.

لا تزال التفاصيل غير واضحة حول مدى مشاركة Claude في التخطيط، لكن التقارير تشير إلى أن النظام ساعد في اتخاذ القرارات خلال العملية.

منذ يوليو الماضي، دفعت وزارة الدفاع الأمريكية لاستخدام أدوات Anthropic بشكل أوسع في العمليات الميدانية، معتبرة أن أنظمتها قادرة على معالجة كم هائل من المعلومات من مصادر متعددة، وتقديم معلومات قابلة للاستخدام بسرعة.

مارك بيل، مسؤول سابق في وزارة الدفاع، قال: “في نظر الجيش، Claude هو النموذج الأرقى في السوق. استخدامه في أنظمة سرية هو أحد إنجازات Anthropic الكبرى، ويمثل ميزة تنافسية مهمة.”

لكن، اعتقال مادورو جاء في سياق مفاوضات معقدة بين Anthropic ووزارة الدفاع، حيث كانت الأخيرة تحاول إعادة التفاوض على شروط العقود، معتبرة أن قيود الاستخدام الحالية مقيدة جدًا.

وفي عدة جلسات، كانت هناك خلافات حول مدى السماح باستخدام Claude في عمليات تتعلق بأمريكيين، أو تحليل بيانات من السوق التجارية.

وفي 27 فبراير، أبلغ Hegseth، أحد مسؤولي البنتاغون، Dario Amodei، أن على الشركة قبول شروط الوزارة قبل نهاية الأسبوع، وإلا ستُصنف على أنها “خطر على سلسلة التوريد”.

وفي اليوم التالي، أُرسل عقد معدل، يظهر موافقة على بعض الشروط، لكنه يترك ثغرات، خاصة حول استخدام البيانات الأمريكية. حاولت Anthropic التفاوض مجددًا، لكن في النهاية، أُعلن عن فشل المفاوضات، وأُوقف التعاون.

وفي الوقت ذاته، كانت هناك أنباء عن محادثات بين Pentagon وOpenAI، حيث أعلن سام ألتمان عن اتفاق، زاعمًا أنه يحترم قيود السلامة ذاتها. وأكدت مصادر أن بعض المسؤولين في البنتاغون يعتقدون أن OpenAI حصلت على ميزة، وأن Anthropic تتعرض لضغوط سياسية.

هذه الأزمة، التي أطلق عليها “عاصفة البنتاغون”، تثير أسئلة خطيرة: هل ستؤدي إلى تراجع الشركات عن التعاون مع الحكومة، أو حتى نقل أعمالها للخارج؟ وهل ستؤدي إلى تقييد أوسع لاستخدام AI في المجال العسكري؟

هل تستطيع Anthropic الصمود؟

رغم كل ذلك، تظهر مؤشرات على أن الشركة قد تتجاوز الأزمة، وتتعزز أكثر. ففي صباح اليوم التالي لمحاولة Hegseth، كانت على الرصيف أمام مقرها في سان فرانسيسكو رسائل تشجيع مكتوبة بالطباشير: “أنتم أعطيتمونا الشجاعة”.

وفي ذات اليوم، تصدر تطبيق Claude على iPhone المركز الأول في متجر App Store، متفوقًا على ChatGPT، مع تسجيل أكثر من مليون تسجيل جديد يوميًا.

وفي الوقت نفسه، توقيع OpenAI على عقد عسكري أثار احتجاجات داخل المجتمع، وقرر بعض الباحثين ترك الشركة، وقدم آخرون استقالاتهم بسبب الخلافات.

سام ألتمان اعترف لاحقًا أن سعيه لإنهاء الاتفاق بسرعة كان خطأ، وكتب: “هذه المسائل معقدة جدًا، وتتطلب تواصلًا واضحًا وشفافًا.” وأكد أن الشركة عدلت الاتفاق، واتبعت قيود السلامة نفسها، لكن خبراء قانونيين يقولون إن من الصعب التأكد من صحة ذلك قبل الاطلاع على النص الكامل.

وفي 4 مارس، أبلغت وزارة الدفاع شركة Anthropic رسميًا بأنها مصنفة على أنها “خطر على سلسلة التوريد الوطنية”. وأكدت الشركة أن هذا التصنيف محدود على العقود العسكرية فقط، وأنه لا يشمل باقي الأعمال.

لكن رسالة موجهة إلى رئيس لجنة الاستخبارات بمجلس الشيوخ، توم كوتون، أظهرت أن الوزارة استندت إلى قانون آخر، قد يسمح لها باستبعاد Anthropic من العقود الحكومية، وهو إجراء يتطلب موافقة عالية المستوى، ويمنح الشركة 30 يومًا للرد.

هذه الأزمة قد تثير ردود فعل متسلسلة في صناعة الذكاء الاصطناعي، حيث يعتقد بعض الخبراء أن الحكومة قد تتجه لتقييد التعاون مع الشركات، أو حتى نقل بعض الأعمال إلى الخارج، مما يهدد سمعة بيئة الأعمال الأمريكية.

وفي النهاية، يعتقد قادة Anthropic أن تقنياتهم ستساعد على بناء أنظمة ذكاء اصطناعي أقوى، تلعب دورًا حاسمًا في مستقبل التوازنات العالمية، وأن الصراع مع الحكومة قد يكون مجرد بداية لمرحلة أوسع من التاريخ.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات