البنتاغون يواجه شركة Anthropic! فتح كامل لClaude العسكرية "وإلا فسخ العقد والمغادرة"

動區BlockTempo

وفقًا لتقرير حصري من Axios، يفكر البنتاغون في إنهاء التعاون مع شركة Anthropic، حيث تصر هذه الشركة على فرض قيود على استخدام نموذج Claude من قبل الجيش، وترفض فتح المجال للمراقبة واسعة النطاق والأسلحة الذاتية الاستقلالية. ومن الجدير بالذكر أن OpenAI وGoogle وxAI وافقوا جميعًا على شروط “جميع الاستخدامات القانونية” التي يفرضها البنتاغون، مما يجعل Anthropic الوحيدة بين أكبر أربع مختبرات ذكاء اصطناعي التي تظل متمسكة بموقفها.

(ملخص سابق: خطة ماسك الجديدة “قاعدة القمر ألفا”: بناء مصنع ذكاء اصطناعي فائق على سطح القمر وإطلاقه نحو النظام الشمسي بواسطة قاذف ضخم)

(معلومات إضافية: هلع الذكاء الاصطناعي وفقدان الوظائف! حذر مسؤولون في مايكروسوفت: ستتم استبدال معظم العمال ذوي الياقات البيضاء بالتلقائية خلال “12-18 شهرًا قادمة”)

فهرس المقال

  • خطان أحمران لـ Anthropic: حظر المراقبة واسعة النطاق، حظر الأسلحة الذاتية
  • هجوم مادورو يشتعل شرارة الأزمة
  • الثلاثة الكبار الآخرون “لا يعارضون”

نقلًا عن Axios، كشف مسؤول حكومي رفيع أن البنتاغون يضغط على المختبرات الأربعة الرائدة (OpenAI، Google، xAI، Anthropic) للسماح للجيش باستخدام أدواتها “لجميع الاستخدامات القانونية” (all lawful purposes)، بما يشمل تطوير الأسلحة، جمع المعلومات، والعمليات الميدانية، في أكثر المجالات حساسية.

ويأتي هذا الطلب استنادًا إلى مذكرة استراتيجية الذكاء الاصطناعي الصادرة عن وزارة الدفاع في 9 يناير من هذا العام. حيث أوضح الوثيقة أنه خلال 180 يومًا، يجب إدراج بند “جميع الاستخدامات القانونية” في جميع عقود شراء الذكاء الاصطناعي، مما يعني أن المعايير العسكرية لاستخدام الذكاء الاصطناعي ستصبح مماثلة لمعايير استخدام القوة العادية، ولن يُطلب بعد الآن وجود “سيطرة بشرية ذات معنى”.

ومع ذلك، بعد شهور من المفاوضات الصعبة، لم تقبل Anthropic حتى الآن هذه الشروط، وأبدى البنتاغون استياءه من ذلك. وقال المسؤول:

كل شيء ممكن، بما في ذلك تقليل التعاون مع Anthropic أو إنهاؤه تمامًا. ولكن إذا رأينا أن ذلك هو التصرف الصحيح، فسنحتاج إلى إيجاد بديل مناسب لهم.

خطان أحمران لـ Anthropic: حظر المراقبة واسعة النطاق، حظر الأسلحة الذاتية

في مواجهة ضغط البنتاغون، تمسكت Anthropic بحدود لا يمكن تجاوزها:

  • حظر المراقبة الجماعية للمواطنين الأمريكيين
  • حظر أنظمة الأسلحة الذاتية (أي الأسلحة ذاتية التدمير بدون تدخل بشري)

اعترف المسؤولون أن هناك غموضًا كبيرًا حول تحديد الحالات التي يجب أن تُدرج ضمن هذين الحظرين، وما إذا كان من الممكن التفاوض على كل استخدام على حدة، أو أن Claude قد يرفض بشكل غير متوقع بعض التطبيقات في الواقع العملي، وهو أمر غير ممكن.

ومن الجدير بالذكر أن Anthropic وقعت العام الماضي عقدًا أوليًا بقيمة تصل إلى 200 مليون دولار لمدة عامين، حيث أصبح Claude أول نموذج ذكاء اصطناعي تجاري يُسمح له بالعمل على شبكة سرية تابعة للبنتاغون، لاستخدامات تتراوح بين اختبار الأسلحة والتواصل في العمليات القتالية الفورية.

هجوم مادورو يشتعل شرارة الأزمة

وتعود شرارة الأزمة إلى حادثة وقعت في وقت سابق من هذا الشهر. وفقًا لتقرير Axios في 13 فبراير، خلال عملية غارة أمريكية على فنزويلا واعتقال الرئيس السابق نيكولاس مادورو، استخدم الجيش الأمريكي منصة Palantir لنشر Claude لمعالجة البيانات الاستخباراتية الفورية.

وأشار التقرير إلى أن كبار مسؤولي Anthropic تواصلوا مع Palantir بعد علمهم بالحادثة، للاستفسار عما إذا كان Claude قد استُخدم في العملية، مع إشارة ضمنية إلى أنهم قد لا يوافقون على هذا الاستخدام، خاصة وأن العملية تضمنت هجومًا باستخدام أسلحة غير انفجارية ذات طاقة حركية.

ونفى Claude مشاركته في العملية، مما أثار قلقًا شديدًا داخل البنتاغون.

ونفى متحدث باسم Anthropic بشكل قاطع، مؤكدًا أنهم ناقشوا الأمر مع وزارة الدفاع لأغراض عسكرية محددة.

الثلاثة الكبار الآخرون “لا يعارضون”

على النقيض من موقف Anthropic، أبدت المختبرات الثلاثة الأخرى مرونة أكبر تجاه مطالب البنتاغون:

  • وافقت OpenAI (ChatGPT) على رفع قيود الأمان المفروضة على المستخدمين عند تقديم خدماتها للجيش
  • أبدت Google (Gemini) تعاونًا نشطًا
  • أبدت xAI (Grok) أيضًا رغبة في التعاون

ويُعتقد أن واحدة على الأقل من هذه الشركات الثلاث قد قبلت تمامًا شروط “جميع الاستخدامات القانونية”، بينما أظهرت الأخرى مرونة أكبر بكثير من Anthropic. هذا يجعل Anthropic اللاعب الوحيد الذي يلتزم بمبادئ الأمان، لكنه يواجه خطر التهميش في سباق تسلح الذكاء الاصطناعي العسكري.

إن التمديد النهائي لمنتجات الذكاء الاصطناعي هو لخدمة الدولة، والعسكرية لا مفر منها في هذا السياق.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات