في الآونة الأخيرة، شنّت الولايات المتحدة وإسرائيل غارات على إيران، وأصدر الرئيس ترامب أمرًا بحظر استخدام شركة Anthropic لذكاءها الاصطناعي Claude من قبل الحكومة، مما أثار اهتمامًا دوليًا. لكن وفقًا لتقرير من صحيفة وول ستريت جورنال، بعد ساعات من حظر ترامب، لا تزال القوات الأمريكية تستخدم نظام Claude في غاراتها على إيران.
مصادر مطلعة ذكرت أن الحكومة الأمريكية أصدرت يوم الجمعة الماضي تعليمات للوكالات الفيدرالية بوقف التعاون مع الشركة، وطلبت من وزارة الدفاع اعتبارها خطرًا أمنيًا محتملًا،
لكن، بما في ذلك القيادة المركزية الأمريكية (CENTCOM)، لا تزال تستخدم نموذج Claude AI لدعم العمليات، لمساعدتها في تحليل المعلومات، وتحديد الأهداف المحتملة، وإجراء محاكاة ميدانية.
سبب حظر الحكومة الأمريكية لـ Claude يعود إلى فشل مفاوضات العقد، حيث رفضت شركة Anthropic تجاوز معايير الأمان التي وضعتها الحكومة، ومنحت المسؤولين العسكريين الحق في استخدام الذكاء الاصطناعي في أي سيناريو قانوني دون قيود.
في السابق، حصلت Anthropic على عقد طويل الأمد بقيمة تصل إلى 200 مليون دولار مع وزارة الدفاع الأمريكية، بالتعاون مع شركات كبرى أخرى مثل Palantir وخدمات Amazon Web Services، لاستخدام Claude في المعلومات السرية والعمليات العسكرية.
وأشارت وول ستريت جورنال إلى أن Claude شاركت في عمليات عسكرية مبكرة، منها مهمة في يناير الماضي أدت إلى اعتقال الرئيس الفنزويلي نيكولاس مادورو، الذي أُوقف وأُجبر على السفر إلى الولايات المتحدة، وصرح خلال المحاكمة بأنه بريء.
لكن، بعد أن طلب وزير الدفاع الأمريكي بيت هيجسث من Anthropic السماح للجيش باستخدام نموذج Claude دون قيود، تصاعد التوتر بين الطرفين.
رفض الرئيس التنفيذي لشركة Anthropic، داريو أمودي، طلب الجيش، وصرح أن بعض الاستخدامات تمثل خطًا أخلاقيًا لا يمكن تجاوزه، حتى لو أدى ذلك إلى فقدان العقود الحكومية.
لهذا السبب، بدأ البنتاغون بالبحث عن مورد بديل، واتفق مع شركة OpenAI لنشر نموذج ChatGPT على الشبكة العسكرية السرية.
بعد توقيع اتفاق مع الجيش الأمريكي، واجهت OpenAI ردود فعل غاضبة من المجتمع. علق محرر Firstpost، سريموي تالوكدار، على ذلك، موضحًا أن شركة Anthropic كانت قد أعلنت سابقًا عن رفضها انتهاك مبادئها الأساسية المتعلقة بالمراقبة الجماعية المحلية وأنظمة الأسلحة الذاتية، مما أدى إلى توقف التعاون مع وزارة الحرب الأمريكية.
لكن، الآن، أعلن الرئيس التنفيذي لـ OpenAI، سام ألتمان، أن وزارة الحرب وافقت على نفس المبادئ الأمنية، مما أثار نقاشات حول معايير العقود.
مصدر الصورة: X OpenAI تتولى عقد الجيش الأمريكي وتثير تساؤلات
نظرًا لرفض Anthropic السماح للجيش الأمريكي باستخدام Claude دون قيود، دخلت في نزاع علني مع البيت الأبيض، حيث أعلن وزير الدفاع بيت هيجسث أن الشركة تعتبر “خطرًا في سلسلة التوريد”.
وهذا يجعل Anthropic أول شركة أمريكية تُصنف علنًا على أنها “خطر في سلسلة التوريد”، وهو تصنيف عادةً يُمنح للشركات ذات الصلة المباشرة مع خصوم أجانب.
بعد تصنيفها، يحق للحكومة مطالبة جميع المقاولين العاملين مع الجيش بإثبات أن أعمالهم العسكرية لا تتصل بمنتجات Anthropic.
وفي رد فعل على قرار الحكومة، تعتزم Anthropic الطعن قانونيًا في تصنيفها، وتقول:
“هذا لا يتوافق مع القانون، وسيشكل سابقة خطيرة لأي شركة أمريكية تتفاوض مع الحكومة، بغض النظر عن تهديدات أو عقوبات وزارة الحرب، لن نغير موقفنا من المراقبة الجماعية واسعة النطاق أو الأسلحة الذاتية.”
قراءة إضافية:
الأمن الوطني مقابل الأخلاق: شركة Anthropic ترفض إزالة حماية Claude، وتتصادم مع وزارة الدفاع الأمريكية