أنثروبي وإدارة البنتاغون يعيدان إطلاق مفاوضات الذكاء الاصطناعي: يسعيان للحفاظ على تعاون كلود في الدفاع، مع التمسك بالخطوط الحمراء الأخلاقية

動區BlockTempo

في ظل تصادم حاد بين أخلاقيات الذكاء الاصطناعي ومتطلبات العسكرية، أعاد الرئيس التنفيذي لشركة Anthropic، داريو أمودي، مؤخراً فتح المفاوضات مع وزارة الدفاع الأمريكية (البنتاجون)، محاولاً إنقاذ عقد تعاون بقيمة مئات الملايين من الدولارات في مجال الذكاء الاصطناعي، مع الحفاظ على “الخطوط الحمراء” للشركة، وتجنب استبعادها رسمياً من سلسلة التوريد الدفاعية.
(ملخص سابق: الرئيس التنفيذي لـ Anthropic يهاجم: عقود OpenAI مع البنتاجون كلها كذب، وAltman يتظاهر بأنه سفير سلام)
(معلومات إضافية: ترامب يخطط لحظر Anthropic بالكامل! يرفض تعديل قيود Claude “القاتلة”، بينما يساند OpenAI بشكل غير مسبوق)

فهرس المقال

تبديل

  • خلفية المفاوضات والتمسك بالخطوط الحمراء
  • آخر تطورات إعادة فتح المفاوضات
  • أهمية الحدث وتوقعات المستقبل

أعاد داريو أمودي، الرئيس التنفيذي لشركة Anthropic، مؤخراً فتح المفاوضات مع وزارة الدفاع الأمريكية، بشأن شروط عقد استخدام نموذج الذكاء الاصطناعي Claude في الأغراض العسكرية، في محاولة أخيرة لإنقاذ الصفقة. جاء ذلك بعد فشل المفاوضات الأسبوع الماضي، وتصنيف البنتاجون لـ Anthropic ضمن “مخاطر سلسلة التوريد”، بهدف تجنب استبعاد الشركة من التعاون مع القوات المسلحة، مع الحفاظ على المبادئ الأخلاقية الأساسية.

خلفية المفاوضات والتمسك بالخطوط الحمراء

وقعت شركة Anthropic منذ العام الماضي عقداً تجريبياً بقيمة تصل إلى 200 مليون دولار مع البنتاجون، مما جعل Claude أول نموذج ذكاء اصطناعي متقدم يُسمح بنشره على شبكات سرية. لكن إدارة ترامب طلبت لاحقاً تعديل الشروط، مؤكدة أن الذكاء الاصطناعي يجب أن يُستخدم “لجميع الأغراض القانونية” دون قيود.

وأصرّت Anthropic على خطين أحمرين: منع استخدام Claude في المراقبة الجماعية للمواطنين الأمريكيين، ومنع استخدامه في الأسلحة ذاتية القيادة بالكامل (أي أنظمة يمكنها اختيار واستهداف الأهداف دون تدخل بشري). ترى الشركة أن هذه الاستخدامات قد تهدد القيم الديمقراطية، وأن تكنولوجيا الذكاء الاصطناعي الحالية غير موثوقة بما يكفي. ومع ذلك، أصدر وزير الدفاع بيت هيجسث، إنذاراً نهائياً، طالباً التوصل إلى حل خلال المهلة المحددة، وإلا سيتم إنهاء العقد وفرض القانون، مما أدى إلى انهيار المفاوضات الأسبوع الماضي.

آخر تطورات إعادة فتح المفاوضات

وفقاً لمصادر مطلعة، يتواصل حالياً أمودي مباشرة مع نائب وزير البحث والهندسة في البنتاجون، إميل مايكل، بهدف التوصل إلى اتفاق وسط يتيح للقوات المسلحة الأمريكية الاستمرار في استخدام Claude، مع تقليل خطر إدراج Anthropic في القائمة السوداء بشكل كبير.

وفي حال نجاح المفاوضات، قد يُعقد عقد جديد يخفف التوترات، ويؤثر على تنافسية صناعة الذكاء الاصطناعي — على سبيل المثال، شركة OpenAI توصلت إلى اتفاق مع البنتاجون، لكنها تعدل حالياً شروطها لإضافة قيود مماثلة. تؤكد Anthropic أنها لا تزال مستعدة للتعاون، لكنها لن تتخلى عن معاييرها الأساسية؛ وإذا لم يتم التوصل إلى اتفاق، ستساعد الشركة في الانتقال السلس لموردين آخرين لتجنب تعطيل العمليات العسكرية.

أهمية الحدث وتوقعات المستقبل

يكشف هذا النزاع عن الصراع بين شركات الذكاء الاصطناعي والجيش حول الأخلاقيات والأمان والأمن القومي. تركز Anthropic على “الذكاء الاصطناعي المسؤول” كعلامة تجارية، وترفض التنازل غير المشروط، مما يعكس مخاوف بعض شركات وادي السيليكون من تطبيقات الذكاء الاصطناعي العسكرية؛ بينما تؤكد البنتاجون على أهمية المرونة في ساحة المعركة والتفوق التكنولوجي.

إذا سارت المفاوضات بنجاح، فقد تُرسّخ نماذج جديدة لتطبيقات الذكاء الاصطناعي في المجال العسكري؛ وإذا فشلت، قد تتعمق الانقسامات في الصناعة. ويتوقع خبراء الصناعة أن يصدر قريباً بيان رسمي أو تطورات جديدة تظهر على السطح.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات