شركة الذكاء الاصطناعي Anthropic والصراع مع الحكومة الأمريكية يتصاعد بشكل مستمر. وفقًا لوكالة رويترز، قامت وزارة الدفاع الأمريكية (البنتاغون) مؤخرًا بوضع Anthropic ضمن قائمة “مخاطر سلسلة التوريد”، مما يقيّد استخدام تقنياتها في العقود العسكرية. وأكدت Anthropic أن هذا التصنيف غير قائم على أساس قانوني، ورفعت دعوى قضائية أمام المحكمة الفيدرالية لإلغاء القرار.
(ملخص سابق: Anthropic يعيد التفاوض مع البنتاغون بشأن التعاون الدفاعي مع Claude، مع التمسك بالخطوط الحمراء الأخلاقية)
(معلومات إضافية: الرئيس التنفيذي لـ Anthropic يهاجم: عقود OpenAI مع البنتاغون كلها كذب، وAltman يتظاهر بأنه سفير سلام)
فهرس المقال
تبديل
دخلت شركة الذكاء الاصطناعي Anthropic والصراع مع الحكومة الأمريكية مرحلة قانونية رسمية. أعلنت وزارة الدفاع مؤخرًا أنها صنفت Anthropic ضمن “مخاطر سلسلة التوريد”، مما يحد من استخدام نماذجها الذكية في العقود العسكرية. وردت Anthropic بشدة، واصفةً القرار بأنه “غير مسبوق ويفتقر إلى أساس قانوني”، ورفعت دعوى أمام المحكمة الفيدرالية لإلغاء التصنيف ووقف تنفيذ القيود.
وفقًا لوكالة رويترز، أبلغت وزارة الدفاع الأمريكية شركة Anthropic رسميًا أن تقنياتها ونماذجها الذكية تعتبر “مخاطر على سلسلة التوريد”، وأن القرار ساري المفعول فورًا. يُستخدم هذا التصنيف عادةً لتقييد الموردين الذين قد يشكلون خطرًا على الأمن القومي، وقد يمنع منتجاتهم من المشاركة في مشتريات الدفاع أو العقود العسكرية.
عمليًا، يعني ذلك أن المقاولين والموردين الذين يعملون مع الجيش الأمريكي قد يُمنعون من استخدام نماذج Anthropic، مثل نظام Claude الشهير. وأشار المراقبون إلى أن هذا نادر جدًا، حيث غالبًا ما يُستخدم التصنيف ضد شركات أجنبية أو موردين يُعتبرون تهديدًا للأمن القومي، وليس ضد شركة أمريكية محلية.
جوهر النزاع يكمن في قيود استخدام تقنيات الذكاء الاصطناعي التي تفرضها Anthropic. وفقًا لتقارير إعلامية متعددة، رفضت الشركة السماح باستخدام نماذجها في اثنين من الاستخدامات عالية الخطورة:
ومع ذلك، خلال مفاوضات مع وزارة الدفاع، طلبت الأخيرة أن تسمح النماذج باستخدام “جميع الاستخدامات القانونية”. لم تتفق الطرفان على قيود الأمان، مما أدى إلى فشل المفاوضات وقرار الحكومة بوضع Anthropic ضمن قائمة مخاطر سلسلة التوريد.
قال الرئيس التنفيذي لـ Anthropic، داريو أموديي، إن قرار وزارة الدفاع “غير قائم على أساس قانوني”، وحذر من أن هذا قد يفتح بابًا لمخاطر على الحكومة في معاقبة الشركات. ورفعت الشركة دعوى أمام المحكمة الفيدرالية، تطالب بإلغاء التصنيف ووقف تنفيذ القيود.
وأوضحت Anthropic أن التصنيف بـ"مخاطر سلسلة التوريد" يُستخدم عادةً ضد شركات أجنبية، وأن تطبيقه على شركة أمريكية قد يؤثر بشكل عميق على صناعة التكنولوجيا بشكل عام وعلى نمط التعاون مع الحكومة.
يُشير محللون إلى أن هذه القضية تعكس تحديات جديدة تواجه صناعة الذكاء الاصطناعي: هل يمكن للشركات تقييد استخدام الحكومات لتقنياتها عندما تدخل في مجالات عسكرية وأمنية؟
يعتقد بعض الخبراء أن قدرة الحكومة على فرض عقوبات اقتصادية على الشركات بسبب قيودها الأمنية قد تضعف من استقلالية قرارات الشركات بشأن أمان وأخلاقيات الذكاء الاصطناعي. من ناحية أخرى، ترى القوات المسلحة أن تقنيات الذكاء الاصطناعي ذات أهمية استراتيجية للأمن الوطني، ويجب ألا تُقيد بشكل مفرط.
نتيجة هذه المعركة القانونية قد تحدد ما إذا كانت شركة Anthropic ستتمكن من استعادة التعاون مع الحكومة الأمريكية، وقد تضع سابقة مهمة لنماذج التعاون المستقبلية بين شركات الذكاء الاصطناعي والحكومات.