في 28 فبراير، أعلن سام ألتمان اليوم على منصة X أن OpenAI توصلت إلى اتفاق مع وزارة الحرب الأمريكية لنشر نماذج الذكاء الاصطناعي الخاصة بها في شبكات أمريكية سرية. قال ألتمان إنه في جميع التفاعلات، أظهر وزارة الحرب تركيزا قويا على سلامة الذكاء الاصطناعي وتأمل في تحقيق أفضل نتائج تطبيقية من خلال التعاون.
أكد ألتمان أن سلامة وشمولية الذكاء الاصطناعي هما المهمة الأساسية ل OpenAI. تم تأييد مبدأين أمنيين رئيسيين طرحتهما الشركة – حظر المراقبة الجماعية داخل البلاد وضمان المساءلة البشرية عن استخدام القوة – من قبل وزارة الحرب وتجسدهما في القوانين والسياسات. كما تدمج هذه المبادئ في الاتفاقيات الرسمية بين الأطراف.
لضمان تشغيل النموذج بأمان، ستنشر OpenAI جهازا معززا وظيفيا (FDE) ويعمل فقط على الشبكات السحابية. بالإضافة إلى ذلك، يخطط الطرفان لبناء ضمانات تقنية لمنع إساءة استخدام النماذج أو السلوك الشاذ. كما دعا ألتمان وزارة الحرب الأمريكية إلى توفير نفس شروط التعاون لجميع شركات الذكاء الاصطناعي، مؤكدا على أهمية المنافسة العادلة والمسؤولية المشتركة.
وبشكل عام، لا يمثل هذا الاتفاق فقط التطبيق الرسمي لتقنيات الذكاء الاصطناعي المتقدمة من قبل الحكومة الأمريكية في الشبكات الحساسة، بل يسلط الضوء أيضا على التطبيق العملي لسلامة الذكاء الاصطناعي والمسؤولية الأخلاقية في السيناريوهات العسكرية. قال ألتمان إن OpenAI ستواصل العمل لجعل الذكاء الاصطناعي يعود بالنفع على البشرية جمعاء، مع تعزيز التكنولوجيا المسؤولة في بيئة واقعية معقدة وفوضوية وحتى خطيرة.
جذب هذا التعاون اهتماما واسعا في الصناعة ويعتقد أنه فتح طرقا جديدة لتطبيق الذكاء الاصطناعي في البنية التحتية الدفاعية والحيوية الحيوية، كما أثار نقاشات حول أمن أنظمة الأسلحة الذاتية ومسؤولية اتخاذ القرار البشري.