وول ستريت جورنال: بعد إصدار ترامب أمرًا بحظر Anthropic، لا تزال الولايات المتحدة وإسرائيل تعتمد على Claude في غاراتها على إيران

CryptoCity

نيويورك تايمز تكشف أنه على الرغم من إصدار ترامب للأوامر بحظر استخدام Claude، إلا أن القوات الأمريكية لا تزال تستخدمه في غاراتها على إيران.

في الآونة الأخيرة، شنّت الولايات المتحدة وإسرائيل غارات على إيران، وأصدر الرئيس ترامب أمرًا بحظر استخدام شركة Anthropic لذكاءها الاصطناعي Claude من قبل الحكومة، مما أثار اهتمامًا دوليًا. لكن وفقًا لتقرير من صحيفة وول ستريت جورنال، بعد ساعات من حظر ترامب، لا تزال القوات الأمريكية تستخدم نظام Claude في غاراتها على إيران.

مصادر مطلعة ذكرت أن الحكومة الأمريكية أصدرت يوم الجمعة الماضي تعليمات للوكالات الفيدرالية بوقف التعاون مع الشركة، وطلبت من وزارة الدفاع اعتبارها خطرًا أمنيًا محتملًا،
لكن، بما في ذلك القيادة المركزية الأمريكية (CENTCOM)، لا تزال تستخدم نموذج Claude AI لدعم العمليات، لمساعدتها في تحليل المعلومات، وتحديد الأهداف المحتملة، وإجراء محاكاة ميدانية.

سبب حظر الحكومة الأمريكية لـ Claude يعود إلى فشل مفاوضات العقد، حيث رفضت شركة Anthropic تجاوز معايير الأمان التي وضعتها الحكومة، ومنحت المسؤولين العسكريين الحق في استخدام الذكاء الاصطناعي في أي سيناريو قانوني دون قيود.

لماذا تصادمت Anthropic مع البنتاغون؟

في السابق، حصلت Anthropic على عقد طويل الأمد بقيمة تصل إلى 200 مليون دولار مع وزارة الدفاع الأمريكية، بالتعاون مع شركات كبرى أخرى مثل Palantir وخدمات Amazon Web Services، لاستخدام Claude في المعلومات السرية والعمليات العسكرية.

وأشارت وول ستريت جورنال إلى أن Claude شاركت في عمليات عسكرية مبكرة، منها مهمة في يناير الماضي أدت إلى اعتقال الرئيس الفنزويلي نيكولاس مادورو، الذي أُوقف وأُجبر على السفر إلى الولايات المتحدة، وصرح خلال المحاكمة بأنه بريء.

  • تقرير ذات صلة: مادورو يصر على براءته في المحكمة الأمريكية! الأمم المتحدة تعقد اجتماعًا طارئًا بشأن فنزويلا، ووجهات نظر الدول تتضح

لكن، بعد أن طلب وزير الدفاع الأمريكي بيت هيجسث من Anthropic السماح للجيش باستخدام نموذج Claude دون قيود، تصاعد التوتر بين الطرفين.
رفض الرئيس التنفيذي لشركة Anthropic، داريو أمودي، طلب الجيش، وصرح أن بعض الاستخدامات تمثل خطًا أخلاقيًا لا يمكن تجاوزه، حتى لو أدى ذلك إلى فقدان العقود الحكومية.

لهذا السبب، بدأ البنتاغون بالبحث عن مورد بديل، واتفق مع شركة OpenAI لنشر نموذج ChatGPT على الشبكة العسكرية السرية.

تولي OpenAI عقد الجيش يثير تساؤلات

بعد توقيع اتفاق مع الجيش الأمريكي، واجهت OpenAI ردود فعل غاضبة من المجتمع. علق محرر Firstpost، سريموي تالوكدار، على ذلك، موضحًا أن شركة Anthropic كانت قد أعلنت سابقًا عن رفضها انتهاك مبادئها الأساسية المتعلقة بالمراقبة الجماعية المحلية وأنظمة الأسلحة الذاتية، مما أدى إلى توقف التعاون مع وزارة الحرب الأمريكية.

لكن، الآن، أعلن الرئيس التنفيذي لـ OpenAI، سام ألتمان، أن وزارة الحرب وافقت على نفس المبادئ الأمنية، مما أثار نقاشات حول معايير العقود.

مصدر الصورة: X OpenAI تتولى عقد الجيش الأمريكي وتثير تساؤلات

شركة Anthropic أول شركة أمريكية تُصنف على أنها “خطر في سلسلة التوريد”

نظرًا لرفض Anthropic السماح للجيش الأمريكي باستخدام Claude دون قيود، دخلت في نزاع علني مع البيت الأبيض، حيث أعلن وزير الدفاع بيت هيجسث أن الشركة تعتبر “خطرًا في سلسلة التوريد”.

وهذا يجعل Anthropic أول شركة أمريكية تُصنف علنًا على أنها “خطر في سلسلة التوريد”، وهو تصنيف عادةً يُمنح للشركات ذات الصلة المباشرة مع خصوم أجانب.

بعد تصنيفها، يحق للحكومة مطالبة جميع المقاولين العاملين مع الجيش بإثبات أن أعمالهم العسكرية لا تتصل بمنتجات Anthropic.
وفي رد فعل على قرار الحكومة، تعتزم Anthropic الطعن قانونيًا في تصنيفها، وتقول:

“هذا لا يتوافق مع القانون، وسيشكل سابقة خطيرة لأي شركة أمريكية تتفاوض مع الحكومة، بغض النظر عن تهديدات أو عقوبات وزارة الحرب، لن نغير موقفنا من المراقبة الجماعية واسعة النطاق أو الأسلحة الذاتية.”

قراءة إضافية:
الأمن الوطني مقابل الأخلاق: شركة Anthropic ترفض إزالة حماية Claude، وتتصادم مع وزارة الدفاع الأمريكية

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات