وفقًا لتقرير حصري من Axios، يفكر البنتاغون في إنهاء التعاون مع شركة Anthropic، حيث تصر هذه الشركة على فرض قيود على استخدام نموذج Claude من قبل الجيش، وترفض فتح المجال للمراقبة واسعة النطاق والأسلحة الذاتية الاستقلالية. ومن الجدير بالذكر أن OpenAI وGoogle وxAI وافقوا جميعًا على شروط “جميع الاستخدامات القانونية” التي يفرضها البنتاغون، مما يجعل Anthropic الوحيدة بين أكبر أربع مختبرات ذكاء اصطناعي التي تظل متمسكة بموقفها.
(ملخص سابق: خطة ماسك الجديدة “قاعدة القمر ألفا”: بناء مصنع ذكاء اصطناعي فائق على سطح القمر وإطلاقه نحو النظام الشمسي بواسطة قاذف ضخم)
(معلومات إضافية: هلع الذكاء الاصطناعي وفقدان الوظائف! حذر مسؤولون في مايكروسوفت: ستتم استبدال معظم العمال ذوي الياقات البيضاء بالتلقائية خلال “12-18 شهرًا قادمة”)
فهرس المقال
نقلًا عن Axios، كشف مسؤول حكومي رفيع أن البنتاغون يضغط على المختبرات الأربعة الرائدة (OpenAI، Google، xAI، Anthropic) للسماح للجيش باستخدام أدواتها “لجميع الاستخدامات القانونية” (all lawful purposes)، بما يشمل تطوير الأسلحة، جمع المعلومات، والعمليات الميدانية، في أكثر المجالات حساسية.
ويأتي هذا الطلب استنادًا إلى مذكرة استراتيجية الذكاء الاصطناعي الصادرة عن وزارة الدفاع في 9 يناير من هذا العام. حيث أوضح الوثيقة أنه خلال 180 يومًا، يجب إدراج بند “جميع الاستخدامات القانونية” في جميع عقود شراء الذكاء الاصطناعي، مما يعني أن المعايير العسكرية لاستخدام الذكاء الاصطناعي ستصبح مماثلة لمعايير استخدام القوة العادية، ولن يُطلب بعد الآن وجود “سيطرة بشرية ذات معنى”.
ومع ذلك، بعد شهور من المفاوضات الصعبة، لم تقبل Anthropic حتى الآن هذه الشروط، وأبدى البنتاغون استياءه من ذلك. وقال المسؤول:
كل شيء ممكن، بما في ذلك تقليل التعاون مع Anthropic أو إنهاؤه تمامًا. ولكن إذا رأينا أن ذلك هو التصرف الصحيح، فسنحتاج إلى إيجاد بديل مناسب لهم.
في مواجهة ضغط البنتاغون، تمسكت Anthropic بحدود لا يمكن تجاوزها:
اعترف المسؤولون أن هناك غموضًا كبيرًا حول تحديد الحالات التي يجب أن تُدرج ضمن هذين الحظرين، وما إذا كان من الممكن التفاوض على كل استخدام على حدة، أو أن Claude قد يرفض بشكل غير متوقع بعض التطبيقات في الواقع العملي، وهو أمر غير ممكن.
ومن الجدير بالذكر أن Anthropic وقعت العام الماضي عقدًا أوليًا بقيمة تصل إلى 200 مليون دولار لمدة عامين، حيث أصبح Claude أول نموذج ذكاء اصطناعي تجاري يُسمح له بالعمل على شبكة سرية تابعة للبنتاغون، لاستخدامات تتراوح بين اختبار الأسلحة والتواصل في العمليات القتالية الفورية.
وتعود شرارة الأزمة إلى حادثة وقعت في وقت سابق من هذا الشهر. وفقًا لتقرير Axios في 13 فبراير، خلال عملية غارة أمريكية على فنزويلا واعتقال الرئيس السابق نيكولاس مادورو، استخدم الجيش الأمريكي منصة Palantir لنشر Claude لمعالجة البيانات الاستخباراتية الفورية.
وأشار التقرير إلى أن كبار مسؤولي Anthropic تواصلوا مع Palantir بعد علمهم بالحادثة، للاستفسار عما إذا كان Claude قد استُخدم في العملية، مع إشارة ضمنية إلى أنهم قد لا يوافقون على هذا الاستخدام، خاصة وأن العملية تضمنت هجومًا باستخدام أسلحة غير انفجارية ذات طاقة حركية.
ونفى Claude مشاركته في العملية، مما أثار قلقًا شديدًا داخل البنتاغون.
ونفى متحدث باسم Anthropic بشكل قاطع، مؤكدًا أنهم ناقشوا الأمر مع وزارة الدفاع لأغراض عسكرية محددة.
على النقيض من موقف Anthropic، أبدت المختبرات الثلاثة الأخرى مرونة أكبر تجاه مطالب البنتاغون:
ويُعتقد أن واحدة على الأقل من هذه الشركات الثلاث قد قبلت تمامًا شروط “جميع الاستخدامات القانونية”، بينما أظهرت الأخرى مرونة أكبر بكثير من Anthropic. هذا يجعل Anthropic اللاعب الوحيد الذي يلتزم بمبادئ الأمان، لكنه يواجه خطر التهميش في سباق تسلح الذكاء الاصطناعي العسكري.
إن التمديد النهائي لمنتجات الذكاء الاصطناعي هو لخدمة الدولة، والعسكرية لا مفر منها في هذا السياق.