الرئيس التنفيذي لشركة أنثروبيك يرد على حظر البنتاغون للاستخدام العسكري

CryptoBreaking

تصاعدت دائرة السياسات الدفاعية المحيطة بالذكاء الاصطناعي بعد أن وصفت وزارة الدفاع الأمريكية شركة أنثروبيك بأنها “مخاطر على سلسلة التوريد”، مما يمنع فعليًا عقودها مع الدفاع من استخدام نماذج الذكاء الاصطناعي الخاصة بها. رد الرئيس التنفيذي لشركة أنثروبيك، داريو أموداي، في مقابلة مع CBS News يوم السبت، قائلاً إن الشركة لن تدعم المراقبة الجماعية المحلية أو الأسلحة الذاتية بالكامل. وذكر أن مثل هذه القدرات تقوض الحقوق الأساسية الأمريكية وستسلم اتخاذ القرارات في الحرب للآلات، وهو موقف يوضح أين تنوي الشركة العمل وأين لا تنوي ذلك ضمن الاستخدامات الأوسع للحكومة للذكاء الاصطناعي.

نقاط رئيسية

وصفت وزارة الدفاع أنثروبيك بأنها “مخاطر على سلسلة التوريد”، مما يحظر على مقاوليها استخدام نماذج الذكاء الاصطناعي الخاصة بها في برامج الدفاع، وهو إجراء وصفه أموداي بأنه غير مسبوق وعقابي.

تعارض أنثروبيك استخدامات الذكاء الاصطناعي الخاصة بها للمراقبة الجماعية المحلية والأسلحة الذاتية، مؤكدة أن الرقابة البشرية لا تزال ضرورية لاتخاذ القرارات أثناء الحرب.

أكد أموداي دعمه لاستخدامات حكومية أخرى لتقنية أنثروبيك، لكنه وضع حدودًا صارمة حول حماية الخصوصية وقدرات الحرب القابلة للتحكم.

بعد تصنيف أنثروبيك، ورد أن شركة أوبن إيه آي المنافسة حصلت على عقد من وزارة الدفاع لنشر نماذجها في الشبكات العسكرية، مما يشير إلى مسارات مختلفة للموردين في مجال الذكاء الاصطناعي الدفاعي.

أدى هذا التطور إلى ردود فعل سلبية على الإنترنت تركزت على الخصوصية والحريات المدنية وحوكمة الذكاء الاصطناعي في الأمن القومي، مسلطًا الضوء على نقاش أوسع حول الاستخدام المسؤول للذكاء الاصطناعي.

الأسهم المذكورة:

المشاعر: محايدة

السياق السوقي: تقع هذه الحادثة عند تقاطع حوكمة الذكاء الاصطناعي، وشراء الدفاع، ومستوى المخاطرة بين مزودي التكنولوجيا المؤسساتيين وسط نقاشات سياسية مستمرة.

السياق السوقي: لا تزال السياسات الأمنية الوطنية، واعتبارات الخصوصية، وموثوقية أنظمة الذكاء الاصطناعي الذاتية تشكل كيفية تفاعل مزودي التكنولوجيا والمقاولين الدفاعيين مع أدوات الذكاء الاصطناعي في بيئات حساسة، مما يؤثر على المزاج التكنولوجي والاستثماري في القطاعات المجاورة.

لماذا يهم الأمر

بالنسبة لمجتمعات العملات الرقمية والتكنولوجيا الأوسع، يبرز حادث أنثروبيك كيف أن السياسات والحوكمة والثقة تشكل اعتماد أدوات الذكاء الاصطناعي المتقدمة. إذا شددت الوكالات الدفاعية القيود على موردين معينين، فقد يعيد البائعون تقييم خطط المنتجات ونماذج المخاطر وأطر الامتثال. يتردد صدى التوتر بين توسيع قدرات الذكاء الاصطناعي والحفاظ على الحريات المدنية خارج عقود الدفاع، ويؤثر على كيفية تقييم المستثمرين المؤسسيين للتعرض لمنصات الذكاء الاصطناعي، وخدمات معالجة البيانات، وأعباء العمل السحابية الأصلية التي تستخدمها قطاعات التمويل والألعاب والأصول الرقمية.

إصرار أموداي على وضع حدود يعكس طلبًا أوسع للمساءلة والشفافية في تطوير الذكاء الاصطناعي. بينما تتسابق الصناعة لنشر نماذج أكثر قدرة، لا تزال المناقشة حول ما يشكل استخدامًا مقبولًا — خاصة في المراقبة والحروب الآلية — غير محسومة. هذا الديناميك يقتصر على سياسة الولايات المتحدة فحسب؛ فالحكومات الحليفة تراجع أسئلة مماثلة، مما قد يؤثر على التعاون عبر الحدود، وشروط الترخيص، وضوابط التصدير. في أنظمة العملات الرقمية والبلوكتشين، حيث الثقة والخصوصية والحوكمة بالفعل من القضايا المركزية، يمكن لأي تحول في سياسة الذكاء الاصطناعي أن يؤثر على تحليلات السلسلة، وأدوات الامتثال الآلية، وتطبيقات الهوية اللامركزية.

من منظور تنظيم السوق، يوضح التباين بين موقف أنثروبيك وفوز أوبن إيه آي بعقد — الذي أُعلن عنه بعد فترة قصيرة من إعلان وزارة الدفاع — كيف يتنقل الموردون المختلفون في نفس المنطقة التنظيمية. يمكن أن تؤثر المناقشات العامة حول هذه التطورات على تقييم المستثمرين للمخاطر المرتبطة بمزودي التكنولوجيا المدعومين بالذكاء الاصطناعي والموردين الذين يمدون البنى التحتية الحيوية للشبكات الحكومية. كما يسلط الضوء على دور السرد الإعلامي في تضخيم المخاوف بشأن المراقبة الجماعية والحريات المدنية، مما قد يؤثر على معنويات أصحاب المصلحة والزخم التنظيمي حول حوكمة الذكاء الاصطناعي.

ما الذي يجب مراقبته بعد ذلك

النقاش النشط في الكونغرس حول وضع حدود للذكاء الاصطناعي وحقوق الخصوصية، مع احتمالية إصدار تشريعات تؤثر على المراقبة الداخلية، وتطوير الأسلحة، وضوابط التصدير.

تحديثات سياسة وزارة الدفاع أو إرشادات الشراء التي توضح كيفية تقييم موردي الذكاء الاصطناعي من حيث المخاطر الأمنية الوطنية وكيفية تنفيذ الاستبدالات أو تدابير تقليل المخاطر.

ردود فعل عامة من أنثروبيك وأوبن إيه آي، توضح كيف تخطط كل شركة لمعالجة حالات الاستخدام الحكومية، والامتثال، والتعرض للمخاطر.

تحركات من قبل مقاولي الدفاع الآخرين وموردي الذكاء الاصطناعي لتأمين أو إعادة التفاوض على عقود وزارة الدفاع، بما في ذلك أي تغييرات في بناء التحالفات مع مزودي السحابة وبروتوكولات معالجة البيانات.

ردود فعل أوسع من المستثمرين والسوق على تطورات حوكمة الذكاء الاصطناعي، خاصة في القطاعات التي تعتمد على معالجة البيانات، والخدمات السحابية، وأعباء العمل في التعلم الآلي.

المصادر والتحقق

مقابلة داريو أموداي، الرئيس التنفيذي لأنثروبيك، مع CBS News حول موقفه من المراقبة الجماعية والأسلحة الذاتية: CBS News.

تصريحات رسمية حول تصنيف أنثروبيك كـ"مخاطر على سلسلة التوريد للأمن القومي" من قبل قيادة وزارة الدفاع، عبر قنوات عامة مرتبطة بمناقشات سياسة وزارة الدفاع والتغطية المعاصرة: منشور تويتر لبيت هيجست.

تطورات عقود الدفاع الخاصة بأوبن إيه آي والنقاشات العامة حول نشر نماذج الذكاء الاصطناعي عبر الشبكات العسكرية، كما أوردتها Cointelegraph: تغطية عقد أوبن إيه آي الدفاعي.

انتقادات تركز على المراقبة الجماعية المدعومة بالذكاء الاصطناعي ومخاوف الحريات المدنية، كما وردت في تغطية النقاش الأوسع: برينس شنيير حول مراقبة الذكاء الاصطناعي.

تصادم السياسات حول موردي الذكاء الاصطناعي يردد صدى في تكنولوجيا الدفاع

عبر داريو أموداي، الرئيس التنفيذي لأنثروبيك، عن موقف واضح خلال مقابلة مع CBS News عندما سُئل عن استخدام الحكومة لنماذج الذكاء الاصطناعي الخاصة بالشركة. وصف قرار وزارة الدفاع تصنيف أنثروبيك كـ"مخاطر على سلسلة التوريد" بأنه خطوة غير مسبوقة وعقابية، مؤكدًا أن ذلك يقلل من مدى عمل المقاول ويعرقل الابتكار. جوهر اعتراضه بسيط: بينما تسعى الحكومة الأمريكية للاستفادة من الذكاء الاصطناعي عبر مجموعة من البرامج، فإن بعض التطبيقات — خاصة المراقبة الجماعية والأسلحة الذاتية بالكامل — غير مسموح بها باستخدام تقنيات أنثروبيك، على الأقل في شكلها الحالي.

حذر أموداي من التمييز بين الاستخدامات المقبولة وغير المقبولة. وأكد أن الشركة تدعم معظم حالات الاستخدام الحكومية لنماذجها من الذكاء الاصطناعي، بشرط ألا تتعدى على الحريات المدنية أو تمنح الآلات سلطات اتخاذ قرار مفرطة. وتسلط تصريحاته الضوء على تمييز حاسم في نقاش سياسة الذكاء الاصطناعي: الخط الفاصل بين تمكين الأتمتة القوية للدفاع والحفاظ على السيطرة البشرية على النتائج التي قد تكون قاتلة. في رأيه، فإن المبدأ الأخير هو جوهري للقيم الأمريكية والمعايير الدولية.

وصف أموداي تصنيف أنثروبيك من قبل وزارة الدفاع بأنه اختبار لمدى نية الولايات المتحدة تنظيم قطاع التكنولوجيا سريع التطور. وذكر أن القانون الحالي لم يواكب تسارع الذكاء الاصطناعي، داعيًا الكونغرس إلى سن قواعد تحد من الاستخدام المحلي للذكاء الاصطناعي للمراقبة، مع ضمان بقاء الأنظمة العسكرية ذات تصميم “الإنسان في الحلقة” عند الضرورة. فكرة وضع حدود واضحة — تهدف إلى تحديد حدود للمطورين والمستخدمين — تتردد في صناعات التكنولوجيا حيث إدارة المخاطر تعتبر ميزة تنافسية.

وفي الوقت نفسه، حدث تطور مغاير في نفس الأسبوع: حيث أُعلن أن أوبن إيه آي حصلت على عقد من وزارة الدفاع لنشر نماذجها في الشبكات العسكرية. زاد هذا من النقاش الأوسع حول ما إذا كانت الحكومة الأمريكية تتبنى نهجًا متعدد الموردين للذكاء الاصطناعي في الدفاع، أم أنها توجه المقاولين نحو مجموعة مفضلة من الموردين. أثار إعلان أوبن إيه آي اهتمامًا فوريًا، حيث نشر سام ألتمان بيانًا عامًا على منصة X، مما زاد من التدقيق حول كيفية دمج أدوات الذكاء الاصطناعي في البنية التحتية للأمن القومي. سرعان ما أشار النقاد إلى مخاوف تتعلق بالخصوصية والحريات المدنية، محذرين من أن توسيع التكنولوجيا القادرة على المراقبة في المجال الدفاعي قد يطبع ممارسات جمع البيانات التدخلية.

وفي خضم النقاش العام، لاحظ المراقبون أن المشهد السياسي لا يزال غير مستقر. بينما يراها البعض فرصة لتبسيط عمليات الدفاع وتحسين دورات اتخاذ القرار، يخشى آخرون من التعدي المفرط، ونقص الشفافية، وتضارب الحوافز عندما تصبح الشركات التجارية للذكاء الاصطناعي جزءًا لا يتجزأ من منظومات الأمن القومي. إن التباين بين موقف أنثروبيك وفوز أوبن إيه آي يعكس توترات أوسع في حوكمة الذكاء الاصطناعي: كيف نوازن بين الابتكار، والأمن، والحقوق الأساسية في عالم يعتمد فيه الذكاء الآلي بشكل متزايد على الوظائف الحيوية. ويبدو أن الطريق للمستقبل لن يعتمد فقط على الاختراقات التقنية، بل أيضًا على وضوح تشريعي ومرونة تنظيمية تتماشى مع الحوافز بين القطاعين العام والخاص.

ومع استمرار النقاش السياسي، سيراقب اللاعبون في عالم العملات الرقمية — حيث الخصوصية، والامتثال، والثقة تشكل أساس العديد من الأنظمة — عن كثب. يردد التوتر بين الدفاع والذكاء الاصطناعي صدى في تكنولوجيا المؤسسات، وخدمات السحابة، وخطوط أنابيب التحليل التي تعتمد عليها منصات العملات الرقمية لإدارة المخاطر، وأدوات الامتثال، ومعالجة البيانات في الوقت الحقيقي. وإذا ظهرت قواعد واضحة تحد من الاستخدامات المرتبطة بالمراقبة، فإن لذلك تداعيات على كيفية تسويق أدوات الذكاء الاصطناعي للقطاعات المنظمة، بما في ذلك التمويل والأصول الرقمية، مما قد يشكل موجة جديدة من البنى التحتية والأدوات الحوكمة المدعومة بالذكاء الاصطناعي.

تبقى أسئلة رئيسية: هل ستقدم الكونغرس تشريعات واضحة تحدد الاستخدام المقبول للذكاء الاصطناعي في البرامج الحكومية؟ كيف ستتطور عمليات شراء وزارة الدفاع استجابة لاستراتيجيات الموردين المتنافسين؟ وكيف ستؤثر الرأي العام على تقييم الشركات المزودة للذكاء الاصطناعي التي تعمل في مجالات حساسة؟ الأشهر القادمة قد تكشف عن إطار أكثر وضوحًا لرقابة الذكاء الاصطناعي، مما قد يؤثر على السياسات العامة والابتكار الخاص، ويترك آثارًا على المطورين، والمقاولين، والمستخدمين عبر مشهد التكنولوجيا.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات