OpenAI تتصدر عقد الذكاء الاصطناعي في مبنى الكابيتول! سام ألتمان يعترف بـ«قرار متسرع»، مؤكدًا عدم تورطها في المراقبة الجماعية والأسلحة الآلية

ChainNewsAbmedia

بعد فشل المفاوضات مع البنتاغون، تم تصنيف شركة Anthropic كمخاطر سلسلة التوريد من قبل الحكومة الأمريكية، وفي نفس الوقت أعلنت شركة OpenAI بسرعة عن فوزها بعقد مع وزارة الدفاع، حيث قامت بنشر نماذجها الذكية في بيئة سرية. لم يثر هذا الصفقة فقط اضطرابات في الصناعة، بل جعل الرئيس التنفيذي لـ OpenAI سام ألتمان يعترف بشكل نادر قائلاً: «هذه الصفقة كانت فعلاً متسرعة، والانطباع عنها ليس جيدًا.»

(تواجه Anthropic صدامًا مباشرًا مع البنتاغون! المدير التنفيذي Amodei يرفض «المراقبة الواسعة النطاق داخليًا» و«الأسلحة الذاتية بالكامل»)

فشل مفاوضات Anthropic، وتدخل إدارة ترامب لمنعها

بعد فشل المفاوضات مع البنتاغون يوم الجمعة الماضي، أصدر الرئيس الأمريكي دونالد ترامب توجيهًا للوكالات الفيدرالية بوقف استخدام تقنيات Anthropic بعد فترة انتقالية مدتها ستة أشهر. وعلّق وزير الدفاع بيت هيجست على ذلك بشكل علني، وعيّن Anthropic كمخاطر على السلسلة.

هذا القرار ألقى صدمة على صناعة الذكاء الاصطناعي. كانت Anthropic دائمًا تؤكد أن تقنياتها لا ينبغي أن تُستخدم في «الأسلحة الذاتية بالكامل» أو «المراقبة الواسعة النطاق داخليًا»، وحددت خطوطًا حمراء واضحة لذلك. ومع ذلك، يبدو أن هذا الموقف لم يتفق مع البنتاغون.

وفي الوقت الذي لا زال العالم يتعاطى مع هذا الخبر، أعلنت شركة OpenAI بسرعة عن اتفاق مع وزارة الدفاع لنشر نماذجها في بيئة سرية. وتوقيت الإعلان أثار اهتمامًا كبيرًا في الصناعة.

OpenAI: خطوطنا الحمراء لم تتغير

ردًا على الشكوك حول احتمال تراجع OpenAI تحت ضغط الأمن القومي، نشرت الشركة مقالًا رسميًا على مدونتها، حددت فيه ثلاثة استخدامات ممنوعة بشكل واضح:

المراقبة الداخلية الواسعة النطاق

الأسلحة الذاتية

اتخاذ القرارات الآلية عالية المخاطر (مثل «نظام الائتمان الاجتماعي»)

وأكدت OpenAI أن تعاونها مع وزارة الدفاع يختلف عن بعض شركات الذكاء الاصطناعي التي «تضعف أو تزيل الحواجز الأمنية، وتعتمد فقط على سياسات الاستخدام»، حيث تتبع بنية أمنية متعددة المستويات وشاملة.

ووفقًا للبيان الرسمي، تملك OpenAI السيطرة الكاملة على تقنيات الأمان، وتقوم بنشر النماذج عبر واجهات برمجة التطبيقات السحابية، مع ضمان مشاركة فريق مدقق أمنياً، بالإضافة إلى وجود شروط تعاقدية صارمة وقوانين أمريكية سارية لضمان الأمان.

كما ذكرت OpenAI في بيانها: «لا نعرف سبب عدم تمكن Anthropic من إبرام هذا الاتفاق، لكن نأمل أن يعيدوا النظر مع المزيد من المختبرات.»

الشكوك حول المراقبة: الأمر التنفيذي 12333 في دائرة الضوء

على الرغم من تأكيد OpenAI على وضوح خطوطها الحمراء، إلا أن خبراء التكنولوجيا لم يقتنعوا. قال مايكل ماسنيك، مؤسس Techdirt، إن محتوى العقد ذكر أن جمع البيانات سيتم وفقًا للأمر التنفيذي 12333 وغيره من القوانين، مما قد يتيح فعليًا المراقبة الداخلية.

وأشار ماسنيك إلى أن الأمر التنفيذي 12333 يُنتقد منذ فترة طويلة كقاعدة قانونية لوكالة الأمن القومي الأمريكية (NSA) لاعتراض الاتصالات الخارجية التي تتعلق بمواطنين أمريكيين. ويعتقد أن هذا يعني أن عقد OpenAI «فعليًا يسمح بالمراقبة الداخلية».

وردت كاترينا موليجان، مسؤولة التعاون الأمني الوطني في OpenAI، على ذلك عبر لينكدإن، موضحة أن التركيز على بند واحد في العقد، واعتباره الحصن الوحيد لمنع استخدام الذكاء الاصطناعي في المراقبة الواسعة أو الأسلحة الذاتية، هو فهم «خاطئ تمامًا».

وأكدت أن «البنية التحتية للتشغيل أهم من لغة العقد»، وأن استخدام واجهات برمجة التطبيقات السحابية يضمن عدم دمج النماذج مباشرة في أنظمة الأسلحة أو أجهزة الاستشعار أو غيرها من معدات العمليات.

سام ألتمان يعترف بسرعة التنفيذ: هل كان بهدف «خفض التوتر» في الصناعة؟

على منصة X، رد سام ألتمان شخصيًا على الانتقادات، معترفًا بأن الصفقة كانت «متسرعة»، وأن الشركة واجهت رد فعل كبير.

وقد انعكس هذا الرد بشكل كبير على السوق، حيث تجاوزت تطبيقات Anthropic، خاصة Claude، ترتيب تنزيلات ChatGPT على متجر Apple App Store يوم السبت، متفوقة عليه مؤقتًا.

(Anthropic تتعرض لإنهاء عقد مع البنتاغون، وتنزيلات Claude تتضاعف وتتصدر القائمة)

فلماذا اختارت الشركة التوقيع على الصفقة رغم ذلك؟

قال ألتمان: «نحن حقًا نرغب في تهدئة الأمور، ونعتقد أن هذه الصفقة معقولة.» وأضاف أنه إذا ساعدت هذه الشراكة في تخفيف التوتر بين وزارة الدفاع وصناعة الذكاء الاصطناعي، فستُعتبر شركة OpenAI شركة تتحمل ضغطًا وتساهم في الاستقرار؛ وإذا لم تنجح، قد يستمر النقد لقراراتها بأنها متسرعة وغير حكيمة.

معركة الحدود بين الذكاء الاصطناعي والدفاع: صناعة تدخل مرحلة جديدة

تكشف هذه الأزمة عن مشكلة أعمق: مع نضوج تقنيات الذكاء الاصطناعي، كيف يمكن للشركات التكنولوجية أن توازن بين الأمن القومي والحدود الأخلاقية؟

اختارت Anthropic الالتزام بمبادئها، وفقدت في النهاية عقدًا حكوميًا؛ بينما تدخلت OpenAI بسرعة، وحاولت عبر البنية التحتية القانونية والتقنية ضمان حدود الأمان. تمثل استراتيجيتان مختلفتان مخاطر مختلفة.

وفي المستقبل، من المتوقع أن تتزايد التعاونات بين شركات الذكاء الاصطناعي والحكومات. المهم هو أن تضمن هذه التعاونات حماية الأمن الوطني مع الحفاظ على حرية المواطنين والتزامات الأخلاق التكنولوجية.

هذه المقالة: OpenAI تتسلم عقد الذكاء الاصطناعي مع البنتاغون! سام ألتمان يعترف بـ«اتخاذ قرار متسرع»، ويؤكد عدم التورط في المراقبة الواسعة أو الأسلحة الذاتية نُشرت أولاً على 链新闻 ABMedia.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات