في الآونة الأخيرة، استحوذ النزاع بين شركة Anthropic الأمريكية الرائدة في مجال الذكاء الاصطناعي ووزارة الدفاع الأمريكية (DoD) على اهتمام مجتمع التكنولوجيا العالمي والمراقبين الجيوسياسيين على حد سواء. فهذا الصراع، الذي جذب اهتمامًا كبيرًا من مجتمع العملات الرقمية الدولي، يتجاوز كونه مجرد خلاف تجاري على عقد؛ إذ يمثل مواجهة مباشرة حول أخلاقيات الذكاء الاصطناعي، والسيادة الوطنية، والقيم الجوهرية لشركات التكنولوجيا. واعتبارًا من 28 فبراير 2026، تصاعدت الأزمة إلى ما هو أبعد من المفاوضات التجارية لتصل إلى تدخل بأمر تنفيذي رئاسي، ما أحدث تأثيرًا عميقًا على مستقبل صناعة الذكاء الاصطناعي.
لمحة عن الحدث: خط أحمر لا يمكن تجاوزه
في 26 فبراير (بالتوقيت المحلي)، أصدر الرئيس التنفيذي لشركة Anthropic، داريو أمودي، بيانًا عامًا يرفض بشكل قاطع طلب وزارة الدفاع بـ "الاستخدام غير المقيد لنماذج الذكاء الاصطناعي الخاصة بها". وأكدت الشركة تمسكها بموقفها القاضي بعدم السماح باستخدام نماذجها في "المراقبة واسعة النطاق داخل الأراضي الأمريكية" أو في "أنظمة الأسلحة الذاتية بالكامل". وردًا على ذلك، هدد وزير الدفاع الأمريكي بيت هيغسيث بإلغاء عقد بقيمة 200 مليون $ مع الشركة وإدراجها في قائمة "مخاطر سلسلة التوريد" — وهي صفة غالبًا ما تُمنح للجهات القادمة من دول معادية. وبعد ذلك بوقت قصير، تدخل الرئيس ترامب شخصيًا، وأصدر أمرًا لجميع الوكالات الفيدرالية بـ "التوقف الفوري" عن استخدام تقنيات Anthropic، مع منح فترة انتقالية مدتها ستة أشهر لاستبدال التكنولوجيا.
الخلفية والتسلسل الزمني: من التعاون إلى الانهيار الكامل
لم يحدث هذا الانقسام بين عشية وضحاها، بل كان نتيجة أشهر من المفاوضات المتبادلة وصراعات النفوذ:
- يوليو 2025: وقعت Anthropic عقدًا بقيمة 200 مليون $ مع وزارة الدفاع، لتصبح أول مختبر ذكاء اصطناعي يدمج نماذجه في سير العمل العسكري الأمريكي السري.
- ديسمبر 2025: بدأت الجهتان مفاوضات حول شروط الاستخدام. وافقت Anthropic على استخدام نماذجها في الدفاع الصاروخي والدفاع السيبراني، لكنها رفضت تمامًا التطبيقات في المراقبة واسعة النطاق والأسلحة الذاتية.
- يناير 2026: ظهرت تقارير تفيد بأن الجيش الأمريكي استخدم نماذج Anthropic في عمليات ضد فنزويلا، ما أثار مخاوف داخل الشركة بشأن احتمال إساءة استخدام تقنياتها.
- 24 فبراير 2026: أصدر الوزير هيغسيث إنذارًا نهائيًا لـ Anthropic، مطالبًا بقبول "جميع الاستخدامات القانونية" بحلول يوم 27 أو مواجهة عواقب وخيمة.
- 26 فبراير 2026: أصدر داريو أمودي بيانه رافضًا الرضوخ للتهديدات. ونشر نائب وزير الدفاع، إميل مايكل، على منصة X، واصفًا أمودي بأنه "محتال" ويعاني من "عقدة الإله".
- 27 فبراير 2026: قبل ساعة من انتهاء المهلة، تدخل الرئيس ترامب وأمر بوقف استخدام تقنيات Anthropic على مستوى الحكومة، وأدرج الشركة رسميًا ضمن "مخاطر سلسلة التوريد للأمن القومي".
تحليل البيانات والبنية: معركة التقييم خلف عقد الـ200 مليون $
رفض عقد حكومي بقيمة 200 مليون $ قرار صعب لأي شركة ناشئة. ومع ذلك، فإن هذا الرقم يخفي خلفه صراعات بنيوية أعمق:
- مقارنة قيمة العقود: رغم أن 200 مليون $ مبلغ كبير، إلا أنه يتضاءل أمام تقييم Anthropic البالغ 38 مليار $، ما يجعل البعد الرمزي للعقد أكبر بكثير من أثره المالي. أما الخطر الحقيقي فيكمن في إدراج الشركة بقائمة "مخاطر سلسلة التوريد"، ما سيحرمها من جميع فرص الأعمال الحكومية الأمريكية ويلحق ضررًا بالغًا بسمعتها عالميًا.
- تغير مشهد المنافسة: في الوقت ذاته تقريبًا، وافقت شركة xAI التابعة لإيلون ماسك على جميع شروط وزارة الدفاع، وفتحت نموذج Grok الخاص بها بالكامل للاستخدام العسكري. يوضح هذا أن البنتاغون لا يعتمد على مزود ذكاء اصطناعي واحد، بل يستخدم البدائل للضغط على Anthropic.
- ديناميكيات القوة في سلسلة التوريد: مطلب الجيش الأمريكي بإزالة كل "الانحيازات الأيديولوجية" من نماذج الذكاء الاصطناعي يعني عمليًا أولوية السيادة التكنولوجية على الأخلاقيات المؤسسية. ويمثل هذا تحولًا للجيش من "متلقٍ للتكنولوجيا" إلى "صانع للقواعد".
تباين الرأي العام: انقسام وادي السيليكون واختيار الأطراف
أحدثت الحادثة صدمة في وادي السيليكون وأفرزت معسكرات متعارضة بوضوح:
- دعم القطاع لـ Anthropic: وقّع أكثر من 550 موظفًا من OpenAI وGoogle DeepMind رسالة مفتوحة بعنوان "لن ننقسم"، دعمًا لموقف Anthropic وحثوا القيادات على رفض مطالب وزارة الدفاع. كما صرح الرئيس التنفيذي لـ OpenAI، سام ألتمان، في مقابلات بأنّه رغم اختلافه مع Anthropic، إلا أنه يثق في التزامها بالسلامة ويعتقد أن وزارة الدفاع لا ينبغي أن تستخدم قانون الإنتاج الدفاعي كوسيلة للتهديد.
- منظور الحكومة والجيش: تصر وزارة الدفاع على أن جميع إجراءاتها "تتفق مع القانون"، وتؤكد أن الشركات لا تملك الحق في فرض شروطها على الاستخدام العسكري القانوني للتقنيات. أما إدارة ترامب فقد اتخذت موقفًا أكثر تشددًا، ووصفت تصرفات Anthropic بأنها "محاولة لإجبار وزارة الحرب على الالتزام بشروط الخدمة بدلًا من الدستور".
- آراء الخبراء المستقلين: أشارت لورين كان، محللة في مركز الأمن والتقنيات الناشئة بجامعة جورجتاون، إلى أنه "لا يوجد رابح هنا، والجميع يشعر بعدم الارتياح". وحذرت من أنه إذا توصلت الشركات إلى أن التعاون مع الحكومة "لا يستحق المخاطرة"، فإن الخاسر النهائي سيكون أفراد الخدمة الذين يحتاجون إلى أحدث التقنيات.
فحص مصداقية السرد: شد الحبل بين الخطاب الأخلاقي وواقع الأعمال
عند تقييم السرديات من الطرفين، من المهم التمييز بين "الحقائق" و"الآراء" و"التكهنات":
- الحقائق: رفضت Anthropic بالفعل رفع قيدين (المراقبة واسعة النطاق، الأسلحة الذاتية بالكامل)؛ أصدرت وزارة الدفاع إنذارًا نهائيًا وفعّلت تصنيف "مخاطر سلسلة التوريد"؛ أصدر الرئيس ترامب أمرًا للوكالات الحكومية بوقف استخدام تقنيات Anthropic.
- الآراء: ادعاء وزارة الدفاع بأنها "لن تقوم بمراقبة واسعة النطاق" هو تبرير ذاتي للامتثال؛ تأكيد Anthropic على التمسك بـ"القيم الديمقراطية" ينسجم مع صورتها المؤسسية المعروفة.
- التكهنات: يعتقد بعض المحللين أن xAI ستكون "الرابح النهائي" في هذا الصراع. ورغم منطقية هذا الرأي، إلا أن العلاقة الوثيقة بين ماسك وإدارة ترامب تثير التساؤلات حول ما إذا كانت تقنيات xAI قادرة بالكامل على تلبية متطلبات الجيش.
تحليل أثر الحادثة على القطاع: نهاية عصر الاستقلال الأخلاقي للذكاء الاصطناعي
تحمل هذه الحادثة دلالات بنيوية عميقة لصناعة الذكاء الاصطناعي والعملات الرقمية:
- تراجع الحدود الأخلاقية للشركات: لطالما قدمت Anthropic نفسها كمدافع عن "الذكاء الاصطناعي الدستوري" والسلامة. ورغم تمسكها بموقفها هذه المرة، فإن نهج الحكومة الحازم يبعث برسالة واضحة للقطاع: عندما تتعارض المصالح الوطنية مع الأخلاقيات المؤسسية، تكون الغلبة للمصالح الوطنية. وقد يدفع هذا المزيد من شركات الذكاء الاصطناعي لإعادة تقييم مخاطرها مستقبلًا.
- الصلة غير المباشرة بصناعة العملات الرقمية: يراقب مجتمع العملات الرقمية العالمي عن كثب، إذ تتداخل تقنيات الذكاء الاصطناعي والعملات الرقمية (مثل الحوسبة اللامركزية والحوسبة المحافظة على الخصوصية) بشكل متزايد. فإذا خضعت نماذج الذكاء الاصطناعي لسيطرة الدولة العميقة، سيكتسب سرد اللامركزية زخمًا أكبر في السوق — وقد يميل المستثمرون لدعم مشاريع بنية تحتية للذكاء الاصطناعي لا يمكن لأي كيان سيادي منفرد التحكم بها.
- إعادة تشكيل علاقة التكنولوجيا بالجيش: من انسحاب Google من مشروع Maven إلى مأزق Anthropic الحالي، يمر نموذج التعاون بين شركات التكنولوجيا والجيش بتحولات جذرية. وفي المستقبل، قد تصبح سلسلة توريد الذكاء الاصطناعي العسكرية أكثر مركزية، مع بقاء المجال فقط للمزودين المستعدين لتقديم "تعاون كامل".
سيناريوهات تطور الأحداث
في ظل حالة الجمود الراهنة، هناك ثلاثة سيناريوهات مستقبلية محتملة:
- السيناريو الأول: التسوية والمصالحة (احتمالية متوسطة الانخفاض): رغم حدة الخطاب، قد يتم التوصل إلى تسوية خلال فترة الانتقال الستة أشهر عبر وساطة طرف ثالث (مثل تدخل الكونغرس). يمكن أن تستأنف Anthropic التعاون المحدود بشروط صارمة، لكن ذلك يتطلب من الطرفين إيجاد مخرج مقبول.
- السيناريو الثاني: استمرار المواجهة والاستبدال (احتمالية عالية): تقوم xAI ومنافسون آخرون بسد الفجوة التي خلفتها Anthropic بالكامل. تخرج Anthropic من السوق العسكرية الأمريكية نهائيًا، وتركز على القطاعات التجارية والمدنية. وتصبح علامة "السلامة" ميزة تنافسية لها في السوق المدنية العالمية، لكنها تفقد الأعمال الحكومية إلى الأبد.
- السيناريو الثالث: تداعيات وانتفاضة تنظيمية (احتمالية متوسطة): تؤدي الحادثة إلى تسارع عالمي في تشريعات "أنظمة الأسلحة الذاتية الفتاكة" (LAWS). وقد تعيد الأمم المتحدة أو هيئات دولية أخرى إطلاق مفاوضات المعاهدات، مع اتخاذ موقف Anthropic مثالًا داعمًا لتشديد التنظيم.
الخلاصة
يمثل الانقسام بين Anthropic ووزارة الدفاع نقطة تحول محورية في تاريخ تطوير الذكاء الاصطناعي. فهو يختبر صلابة شركة تضع السلامة في صميم أولوياتها أمام سلطة الدولة، ويكشف الفجوة الواسعة بين الأطر الأخلاقية والتنظيم القانوني في عصر التطور التكنولوجي المتسارع. أما بالنسبة لصناعة العملات الرقمية، فهذه المواجهة تذكير صارخ: سواء كان الأمر متعلقًا بالذكاء الاصطناعي أو البلوكشين، فإن الشكل النهائي للتكنولوجيا لا تحدده الشيفرة وحدها، بل التفاعل المعقد بين السلطة ورأس المال والقيم. وخلال الأشهر المقبلة، ستستمر تداعيات هذا الصراع في الظهور، لتكتب فصلًا جديدًا في علاقة التكنولوجيا بالسيادة.


