الرئيس التنفيذي لشركة أنثروبيك: كلاود غير مناسب للاستخدام العسكري، ونتطلع إلى توقيع شروط أكثر وضوحًا

ChainNewsAbmedia

أنثروبيك الرئيس التنفيذي داريو أمودي يوضح في مقابلة مع رئيس تحرير “الإيكونوميست” زاني مينتون بيددوس سبب معارضة أنثروبيك لبعض شروط العقود مع البنتاغون. يرى أن موقف أنثروبيك لا يستند فقط إلى القيم الديمقراطية، بل أيضًا إلى القلق من مدى موثوقية نماذج الذكاء الاصطناعي الحالية لتطبيقها في الدفاع العسكري، ومن هو الذي ينبغي أن يسيطر عليها في النهاية. كما أعرب عن أمله في فتح حوار مع الحكومة لمناقشة شروط واضحة أكثر للذكاء الاصطناعي.

أمودي: كلاود لم يُصب بعد ليكون نموذجًا عسكريًا آليًا بالكامل

بعد أن أصرت أنثروبيك على أن كلاود لا يُستخدم للمراقبة الجماعية أو الأسلحة الذاتية، أمرت إدارة ترامب بحظر استخدام الوكالات الفيدرالية للأدوات التي تقدمها الشركة. الآن، تصنف الولايات المتحدة كلاود كمورد مخاطر للذكاء الاصطناعي. قال أمودي إن النموذج الرئيسي للشركة، كلاود، لم يُعد جاهزًا بعد للاستخدام في سيناريوهات عسكرية آلية بالكامل، ويعتقد أنه من الصعب على شركة خاصة تقدم حلول الذكاء الاصطناعي أن تشرح للحكومة كيفية الاستخدام الآمن للنماذج، لكنه يرى أن ذلك ضروري كإجراء أمني.

وأوضح أن أنثروبيك وقعت عقدًا محدود النطاق مع البنتاغون، ولم تظهر مشكلة حتى الآن، لكنهم قلقون من الاستخدام المستقبلي. إن التوجه نحو الأتمتة العسكرية الكاملة قد يخلق سيناريو يتحكم فيه الذكاء الاصطناعي في مئات الآلاف من الطائرات بدون طيار دون الالتزام بالمعايير العسكرية التقليدية، وإذا لم يتم تحديد نطاق الاستخدام، فسيصبح من الصعب السيطرة عليه.

كيف تثبت أنثروبيك أن تقييد استخدام الأسلحة هو إجراء معقول؟

في حوارها مع “الإيكونوميست”، أوضح أمودي أن سبب تقييد استخدام كلاود في قيادة الطائرات بدون طيار للأسلحة الآلية هو ناتج عن نقطتين: عدم موثوقية كلاود وغياب إطار رقابة بشرية (الفيديو 0:00-0:18، 5:48-5:58).

عدم موثوقية كلاود: يرى أمودي أن نموذج كلاود غير جاهز بعد لدعم سيناريوهات الاستخدام العسكري الآلي بالكامل، ويقارن ذلك بأنه مثلما يجب على شركات الطيران الإعلان عن بعض الطرق التي قد تكون غير آمنة أثناء الطيران (الفيديو 0:05-0:49).

غياب إطار رقابة بشرية: يعبر أمودي عن قلقه من غياب قواعد بشرية لإدارة جيش من الطائرات بدون طيار، مما قد يؤدي إلى أن شخصًا واحدًا يمكنه السيطرة على مئات الآلاف من الأسلحة دون تحمل المسؤولية العسكرية التقليدية (الفيديو 5:48-6:55).

كيف يتم التعامل مع الخلافات حول الذكاء الاصطناعي العسكري؟

من خلال الحوار مع “الإيكونوميست”، أعرب أمودي عن أمله في أن تتعاون أنثروبيك مع الحكومة بشكل أكثر تفصيلًا لمعالجة الخلافات حول تطبيقات الذكاء الاصطناعي. شدد على أهمية مناقشة موثوقية النماذج الحالية وأطر الحوكمة بين مزودي الذكاء الاصطناعي والحكومة، لمواجهة المخاطر المحتملة. يرى أن مزودي الذكاء الاصطناعي يتحملون مسؤولية توضيح مدى نضوج النماذج في بعض التطبيقات عالية الخطورة.

اقترح أمودي توقيع عقد محدود يغطي حالات الاستخدام التي تم التوافق عليها، بحيث يمكن للطرفين وضع قواعد تشغيل للنماذج قبل توسيع الاستخدام إلى مهام أكثر إثارة للجدل. في الوقت الحالي، هناك حاجة لمزيد من النقاش لإيجاد توازن، بحيث لا يمنح الشركات الخاصة سلطات مفرطة، ولا يُنزع السلطة تمامًا من الحكومة.

اسم أنثروبيك مستمد من “الأنثروبولوجيا”، ويعكس نية مؤسسها أمودي: بناء شركة ذكاء اصطناعي تركز على الإنسان. هذا الالتزام جعله واحدًا من القلائل الذين يجرؤون على مواجهة الحكومة الأمريكية علنًا، واتهام الصين بسرقة تقنية كلاود. كيف ستوازن أنثروبيك بين المبادئ التي تؤمن بها والتعاون مع الأمن الوطني، سيكون علامة فارقة في تطور الذكاء الاصطناعي العسكري. كيف سيتم حل هذا الجمود الذي يخص السيادة التكنولوجية والحدود الأخلاقية؟ العالم يراقب.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات