في 3 مارس، تم الإبلاغ عن استمرار انتشار خبر اتفاقية التعاون بين OpenAI ووزارة الدفاع الأمريكية، وناقش عدد من الموظفين الحاليين والسابقين مؤخرا علنا حدود الأمان، والاستخدامات المحتملة، والاختلافات بين موقف الاتفاقية وموقف Anthropic على منصة التواصل الاجتماعي X، والتي جذبت اهتماما واسعا في مجال التكنولوجيا والسياسات.
أكد الرئيس التنفيذي لشركة OpenAI، سام ألتمان، سابقا أن الشركة توصلت إلى اتفاقية تعاون مع وزارة الدفاع الأمريكية، تسمح لها باستخدام نماذج الذكاء الاصطناعي الخاصة ب OpenAI تحت ظروف محددة. سرعان ما أصبح التعاون مثيرا للجدل لأن شركة ذكاء اصطناعي أخرى، Anthropic، رفضت سابقا قبول شروط مماثلة بسبب مخاوف من أن نموذجها كلود قد يستخدم في أنظمة مراقبة محلية واسعة النطاق أو أنظمة أسلحة قاتلة ذاتية الانتشار.
ردا على ذلك، قال الباحث في OpenAI بوعاز باراك إنه من غير الدقيق وصف عقد OpenAI بأنه “يضعف خطوط الأمن الحمراء.” وأشار إلى أنه من المعلومات المتاحة حاليا، قد تكون القيود على استخدام نماذج الذكاء الاصطناعي في اتفاقية OpenAI أكثر صرامة من العقود التي حصلت عليها Anthropic سابقا، خاصة فيما يتعلق بمنع المراقبة المحلية واسعة النطاق والأسلحة الذاتية.
وفي الوقت نفسه، يقدم مايلز بروندج، رئيس أبحاث السياسات السابق في OpenAI، وجهة نظر مختلفة. يعتقد أنه في ظل وجود محامين خارجيين وتصريحات عامة من البنتاغون، قد يشك بعض الموظفين في أن الشركة قدمت تنازلات في المفاوضات ويحاولون تقديم هذه التنازلات كتعاون فني. ومع ذلك، أضاف لاحقا أن الهيكل الداخلي ل OpenAI معقد، وقد يكون الفريق المعني في المفاوضات يعمل بجد لتحقيق نتيجة معقولة.
كشف فني آخر في OpenAI، كلايف تشان، أن عقد الشركة يحتوي على بند حماية يحظر استخدام الذكاء الاصطناعي للمراقبة الجماعية أو الأسلحة القاتلة الذاتية، وقال إنه يضغط على الشركة للكشف عن مزيد من التفاصيل عن الاتفاقية استجابة لمخاوف الجمهور.
قال العالم الباحث محمد بافاريان إنه من غير العادل أن يعامل البنتاغون أنثروبيك كخطر في سلسلة التوريد. يعتقد أنه إذا بقي الطرفان هادئين في المفاوضات، فلا تزال هناك فرصة لسد الفجوة في المواقف.
بالإضافة إلى ذلك، أشار الباحث نعوم براون إلى أن صياغة الاتفاقية التي أعلن عنها في الأصل تركت بعض الأسئلة، مثل إمكانية استخدام الذكاء الاصطناعي في أشكال قانونية جديدة من المراقبة. ومع ذلك، بعد تحديث OpenAI لمدونتها الرسمية، تم تعديل هذه التصريحات.
كما أكد نعوم براون أن استخدام الذكاء الاصطناعي في وكالات الأمن القومي يجب أن يخضع لمراجعة العمليات الديمقراطية وألا يقرر فقط من قبل شركات التكنولوجيا أو وكالات الاستخبارات. حاليا، تم تعليق خطط نشر أنظمة الذكاء الاصطناعي ذات الصلة لخدمات الاستخبارات مثل وكالة الأمن القومي حتى مناقشات سياسية إضافية.
يعكس هذا الحادث الجدل العقيد الذي يواجهه تطبيق تكنولوجيا الذكاء الاصطناعي في مجال الأمن القومي. مع استمرار زيادة قدرات الذكاء الاصطناعي، من المتوقع أن تستمر المناقشات حول الاستخدامات العسكرية للذكاء الاصطناعي، ومخاطر المراقبة الآن، والحوكمة الأخلاقية للذكاء الاصطناعي في التصاعد.