تصاعد التوتر بين مختبر الذكاء الاصطناعي الرائد والمؤسسة الدفاعية الأمريكية إلى مواجهة عالية المخاطر بشأن الذكاء الاصطناعي الأنثروبي واستخدامه في ساحة المعركة.
شركة أنثروبي تصمد أمام ضغط البنتاغون
رفضت أنثروبي مطالب وزارة الدفاع الأمريكية بإزالة حدود السلامة الرئيسية للذكاء الاصطناعي من أنظمتها، على الرغم من أن عقدها البالغ 200 مليون دولار أصبح مهددًا. وأوضحت الشركة أنها لن تتراجع في نزاعها مع وزارة الدفاع حول كيفية نشر نماذجها المتقدمة عبر الشبكات العسكرية.
حصلت الشركات المنافسة، مثل OpenAI وGoogle وxAI، على جوائز مماثلة من وزارة الدفاع تصل إلى 200 مليون دولار في عام 2023. ومع ذلك، وافقت تلك الشركات على السماح للبنتاغون باستخدام أنظمتها في جميع المهام القانونية داخل بيئات عسكرية غير مصنفة، مما يمنح الحكومة مرونة تشغيلية أوسع.
وبالمقابل، وقعت أنثروبي عقدًا خاصًا بقيمة 200 مليون دولار مع وزارة الدفاع في يوليو، وأصبحت أول مختبر ذكاء اصطناعي يدمج نماذجه مباشرة في سير العمل في شبكات مصنفة. علاوة على ذلك، تم دمج أدواتها في عمليات دفاعية حساسة، مما وضع الشركة في مركز بناء الذكاء الاصطناعي للأمن القومي الأمريكي.
تزايدت التوترات في المفاوضات مع مسؤولي البنتاغون خلال الأسابيع الأخيرة. وقال شخص مطلع على المحادثات إن التوتر “يعود لعدة أشهر”، قبل أن يصبح علنًا أن كلود يُستخدم في عملية أمريكية مرتبطة بمصادرة الرئيس الفنزويلي نيكولاس مادورو.
الخلاف حول المراقبة والأسلحة الذاتية
جوهر النزاع هو مدى قدرة السلطات العسكرية على دفع نماذج الذكاء الاصطناعي القوية نحو المراقبة والاستقلالية. تسعى أنثروبي للحصول على ضمانات ملزمة بعدم استخدام تقنيتها في أسلحة ذاتية بالكامل أو للمراقبة الجماعية للمواطنين الأمريكيين، بينما تريد وزارة الدفاع تجنب مثل هذه القيود.
لكن، هذا ليس خلافًا تجاريًا ضيقًا، بل نزاعًا عالي المستوى حول حماية الذكاء الاصطناعي مع تداعيات مباشرة على أتمتة ساحة المعركة المستقبلية. يصر البنتاغون على أقصى قدر من الحرية القانونية، بينما تجادل أنثروبي بأن الأنظمة الحالية لا يمكن الوثوق بها بعد لاتخاذ قرارات حياة أو موت على نطاق واسع.
وفي بيان مفصل، حذر الرئيس التنفيذي داريو أموداي من أن الذكاء الاصطناعي يمكن أن “يقوض، بدلاً من أن يدافع، عن القيم الديمقراطية” في “مجموعة ضيقة من الحالات”. وأكد أن بعض التطبيقات “خارج حدود ما يمكن لتقنية اليوم أن تؤديه بأمان وموثوقية”، مسلطًا الضوء على مخاطر سوء الاستخدام خلال العمليات العسكرية المعقدة.
وفي سياق مخاوف المراقبة، قال أموداي إن الأنظمة القوية الآن تتيح “تجميع هذه البيانات المتفرقة، التي تبدو بريئة بشكل فردي، في صورة شاملة عن حياة أي شخص، تلقائيًا وعلى نطاق واسع”. وحذر من أن مثل هذه القدرة، إذا وجهت داخليًا، يمكن أن تعيد تشكيل العلاقة بين المواطنين والدولة بشكل جذري.
كرر أموداي أن أنثروبي تدعم استخدام الذكاء الاصطناعي لجمع المعلومات الاستخبارية الأجنبية بشكل قانوني. لكنه أضاف أن “استخدام هذه الأنظمة للمراقبة الجماعية الداخلية غير متوافق مع القيم الديمقراطية”، موضحًا خطًا أخلاقيًا صارمًا بين جمع المعلومات الخارجية والمراقبة الداخلية للأمريكيين.
التهديدات والمواعيد النهائية والضغط القانوني
تصاعدت قوة الصراع خلال اجتماع يوم الثلاثاء في البنتاغون بين أموداي ووزير الدفاع بيت هيجسث. هدد هيجسث بوضع أنثروبي ضمن “مخاطر سلسلة التوريد” أو استدعاء قانون الإنتاج الدفاعي لإجبار الشركة على الامتثال. وفي ليلة الأربعاء، قدمت وزارة الدفاع ما وصفته بـ"عرضها الأخير والنهائي"، ومنحت الشركة حتى الساعة 5:01 مساءً بالتوقيت الشرقي يوم الجمعة للرد.
اعترفت متحدثة باسم أنثروبي بأنها تلقت صياغة عقد معدلة يوم الأربعاء، لكنها قالت إنها تمثل “تقريبًا لا تقدم”. ووفقًا لها، كانت الصياغة الجديدة، التي وُصفت بأنها حل وسط، مصحوبة بصياغة قانونية تسمح فعليًا بتجاهل الضمانات الحيوية “حسب الرغبة”، مما يقوض الحماية المعلنة.
وفي مواجهة التصعيد، قال أموداي: “قالت وزارة الحرب إنهم سيوقعون فقط مع شركات الذكاء الاصطناعي التي توافق على ‘أي استخدام قانوني’ وإزالة الضمانات في الحالات المذكورة أعلاه.” وأضاف أن المسؤولين هددوا بقطع اتصال أنثروبي عن أنظمتهم وتصنيف الشركة كـ"مخاطر سلسلة التوريد" إذا رفضت؛ ومع ذلك، أصر على أن “لا يمكننا بضمير حي أن نوافق على طلبهم”.
بالنسبة للبنتاغون، يُنظر إلى الأمر بشكل مختلف. قال المتحدث الرسمي، شون بارنيل، يوم الخميس إن وزارة الدفاع “لا تهتم” باستخدام أنظمة أنثروبي للأسلحة الذاتية بالكامل أو لمراقبة جماعية للأمريكيين، مشيرًا إلى أن مثل هذه الممارسات ستكون غير قانونية. وبدلاً من ذلك، أكد أن الوزارة تريد ببساطة أن تسمح الشركة باستخدام تقنيتها “لجميع الأغراض القانونية”، واصفًا ذلك بأنه “طلب بسيط وعقلاني”.
الهجمات الشخصية والدعم العام
تحول النزاع أيضًا إلى مستوى شخصي على أعلى المستويات. ليلة الخميس، هاجم نائب وزير الدفاع الأمريكي إيميل مايكل أموداي على منصة X، مدعيًا أن التنفيذي “لا يريد شيئًا أكثر من محاولة السيطرة الشخصية على الجيش الأمريكي”. وكتب مايكل أيضًا: “من العار أن داريو أموداي كذاب ويملك شعورًا إلهيًا”.
ومع ذلك، حظيت أنثروبي بدعم كبير من بعض قطاعات التكنولوجيا. في رسالة مفتوحة، دعم أكثر من 200 موظف من Google وOpenAI علنًا موقف الشركة. وأخبر مسؤول سابق في وزارة الدفاع BBC أن تبرير هيجسث لاستخدام تصنيف “مخاطر سلسلة التوريد” بدا “واهياً للغاية”، مما أثار تساؤلات حول قوة حجة البنتاغون.
كما أصبح الصراع نقطة محورية في النقاش الأوسع حول أخلاقيات الذكاء الاصطناعي والسياسة العسكرية. يراقب الباحثون والمدافعون عن الحريات المدنية عن كثب، معتبرين القضية اختبارًا مبكرًا لمدى قدرة الوكالات الدفاعية على دفع المختبرات الخاصة لتخفيف القيود المدمجة على الأنظمة المتقدمة.
المخاطر الاستراتيجية للدفاع الأمريكي عن الذكاء الاصطناعي
على الرغم من التصعيد في الخطاب، أكد أموداي أنه “يؤمن بشدة بأهمية استخدام الذكاء الاصطناعي للدفاع عن الولايات المتحدة”. واعتبر أن القضية تتعلق بالتنفيذ المسؤول، وليس بمعارضة الدفاع الوطني، مؤكدًا أن المصداقية طويلة الأمد لقدرات الذكاء الاصطناعي الأمريكية تعتمد على احترام القيم الديمقراطية.
قال ممثل أنثروبي إن المنظمة لا تزال “مستعدة لمواصلة الحوار وملتزمة باستمرارية العمليات للوزارة وجنود الحرب الأمريكيين”. ومع ذلك، مع اقتراب موعد البنتاغون النهائي وتهديدات تصنيف الشركة كمخاطر سلسلة التوريد لا تزال قائمة، يواجه الطرفان ضغطًا لحل الأزمة دون تعطيل الابتكار الحيوي.
وفي النهاية، أصبح الصراع بين أنثروبي والبنتاغون حول الضمانات والمراقبة والاستقلالية حالة مبكرة حاسمة في حوكمة الذكاء الاصطناعي العسكري. وسيشكل نتائجه على الأرجح مستقبل نماذج أنثروبي للذكاء الاصطناعي والنظم المنافسة التي يتم التعاقد معها، وتقييدها، ونشرها عبر عمليات الدفاع الأمريكية.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
مواجهة البنتاغون تضع ضوابط الذكاء الاصطناعي الأنثروبي و$200 مليون عقد دفاع في خطر
تصاعد التوتر بين مختبر الذكاء الاصطناعي الرائد والمؤسسة الدفاعية الأمريكية إلى مواجهة عالية المخاطر بشأن الذكاء الاصطناعي الأنثروبي واستخدامه في ساحة المعركة.
شركة أنثروبي تصمد أمام ضغط البنتاغون
رفضت أنثروبي مطالب وزارة الدفاع الأمريكية بإزالة حدود السلامة الرئيسية للذكاء الاصطناعي من أنظمتها، على الرغم من أن عقدها البالغ 200 مليون دولار أصبح مهددًا. وأوضحت الشركة أنها لن تتراجع في نزاعها مع وزارة الدفاع حول كيفية نشر نماذجها المتقدمة عبر الشبكات العسكرية.
حصلت الشركات المنافسة، مثل OpenAI وGoogle وxAI، على جوائز مماثلة من وزارة الدفاع تصل إلى 200 مليون دولار في عام 2023. ومع ذلك، وافقت تلك الشركات على السماح للبنتاغون باستخدام أنظمتها في جميع المهام القانونية داخل بيئات عسكرية غير مصنفة، مما يمنح الحكومة مرونة تشغيلية أوسع.
وبالمقابل، وقعت أنثروبي عقدًا خاصًا بقيمة 200 مليون دولار مع وزارة الدفاع في يوليو، وأصبحت أول مختبر ذكاء اصطناعي يدمج نماذجه مباشرة في سير العمل في شبكات مصنفة. علاوة على ذلك، تم دمج أدواتها في عمليات دفاعية حساسة، مما وضع الشركة في مركز بناء الذكاء الاصطناعي للأمن القومي الأمريكي.
تزايدت التوترات في المفاوضات مع مسؤولي البنتاغون خلال الأسابيع الأخيرة. وقال شخص مطلع على المحادثات إن التوتر “يعود لعدة أشهر”، قبل أن يصبح علنًا أن كلود يُستخدم في عملية أمريكية مرتبطة بمصادرة الرئيس الفنزويلي نيكولاس مادورو.
الخلاف حول المراقبة والأسلحة الذاتية
جوهر النزاع هو مدى قدرة السلطات العسكرية على دفع نماذج الذكاء الاصطناعي القوية نحو المراقبة والاستقلالية. تسعى أنثروبي للحصول على ضمانات ملزمة بعدم استخدام تقنيتها في أسلحة ذاتية بالكامل أو للمراقبة الجماعية للمواطنين الأمريكيين، بينما تريد وزارة الدفاع تجنب مثل هذه القيود.
لكن، هذا ليس خلافًا تجاريًا ضيقًا، بل نزاعًا عالي المستوى حول حماية الذكاء الاصطناعي مع تداعيات مباشرة على أتمتة ساحة المعركة المستقبلية. يصر البنتاغون على أقصى قدر من الحرية القانونية، بينما تجادل أنثروبي بأن الأنظمة الحالية لا يمكن الوثوق بها بعد لاتخاذ قرارات حياة أو موت على نطاق واسع.
وفي بيان مفصل، حذر الرئيس التنفيذي داريو أموداي من أن الذكاء الاصطناعي يمكن أن “يقوض، بدلاً من أن يدافع، عن القيم الديمقراطية” في “مجموعة ضيقة من الحالات”. وأكد أن بعض التطبيقات “خارج حدود ما يمكن لتقنية اليوم أن تؤديه بأمان وموثوقية”، مسلطًا الضوء على مخاطر سوء الاستخدام خلال العمليات العسكرية المعقدة.
وفي سياق مخاوف المراقبة، قال أموداي إن الأنظمة القوية الآن تتيح “تجميع هذه البيانات المتفرقة، التي تبدو بريئة بشكل فردي، في صورة شاملة عن حياة أي شخص، تلقائيًا وعلى نطاق واسع”. وحذر من أن مثل هذه القدرة، إذا وجهت داخليًا، يمكن أن تعيد تشكيل العلاقة بين المواطنين والدولة بشكل جذري.
كرر أموداي أن أنثروبي تدعم استخدام الذكاء الاصطناعي لجمع المعلومات الاستخبارية الأجنبية بشكل قانوني. لكنه أضاف أن “استخدام هذه الأنظمة للمراقبة الجماعية الداخلية غير متوافق مع القيم الديمقراطية”، موضحًا خطًا أخلاقيًا صارمًا بين جمع المعلومات الخارجية والمراقبة الداخلية للأمريكيين.
التهديدات والمواعيد النهائية والضغط القانوني
تصاعدت قوة الصراع خلال اجتماع يوم الثلاثاء في البنتاغون بين أموداي ووزير الدفاع بيت هيجسث. هدد هيجسث بوضع أنثروبي ضمن “مخاطر سلسلة التوريد” أو استدعاء قانون الإنتاج الدفاعي لإجبار الشركة على الامتثال. وفي ليلة الأربعاء، قدمت وزارة الدفاع ما وصفته بـ"عرضها الأخير والنهائي"، ومنحت الشركة حتى الساعة 5:01 مساءً بالتوقيت الشرقي يوم الجمعة للرد.
اعترفت متحدثة باسم أنثروبي بأنها تلقت صياغة عقد معدلة يوم الأربعاء، لكنها قالت إنها تمثل “تقريبًا لا تقدم”. ووفقًا لها، كانت الصياغة الجديدة، التي وُصفت بأنها حل وسط، مصحوبة بصياغة قانونية تسمح فعليًا بتجاهل الضمانات الحيوية “حسب الرغبة”، مما يقوض الحماية المعلنة.
وفي مواجهة التصعيد، قال أموداي: “قالت وزارة الحرب إنهم سيوقعون فقط مع شركات الذكاء الاصطناعي التي توافق على ‘أي استخدام قانوني’ وإزالة الضمانات في الحالات المذكورة أعلاه.” وأضاف أن المسؤولين هددوا بقطع اتصال أنثروبي عن أنظمتهم وتصنيف الشركة كـ"مخاطر سلسلة التوريد" إذا رفضت؛ ومع ذلك، أصر على أن “لا يمكننا بضمير حي أن نوافق على طلبهم”.
بالنسبة للبنتاغون، يُنظر إلى الأمر بشكل مختلف. قال المتحدث الرسمي، شون بارنيل، يوم الخميس إن وزارة الدفاع “لا تهتم” باستخدام أنظمة أنثروبي للأسلحة الذاتية بالكامل أو لمراقبة جماعية للأمريكيين، مشيرًا إلى أن مثل هذه الممارسات ستكون غير قانونية. وبدلاً من ذلك، أكد أن الوزارة تريد ببساطة أن تسمح الشركة باستخدام تقنيتها “لجميع الأغراض القانونية”، واصفًا ذلك بأنه “طلب بسيط وعقلاني”.
الهجمات الشخصية والدعم العام
تحول النزاع أيضًا إلى مستوى شخصي على أعلى المستويات. ليلة الخميس، هاجم نائب وزير الدفاع الأمريكي إيميل مايكل أموداي على منصة X، مدعيًا أن التنفيذي “لا يريد شيئًا أكثر من محاولة السيطرة الشخصية على الجيش الأمريكي”. وكتب مايكل أيضًا: “من العار أن داريو أموداي كذاب ويملك شعورًا إلهيًا”.
ومع ذلك، حظيت أنثروبي بدعم كبير من بعض قطاعات التكنولوجيا. في رسالة مفتوحة، دعم أكثر من 200 موظف من Google وOpenAI علنًا موقف الشركة. وأخبر مسؤول سابق في وزارة الدفاع BBC أن تبرير هيجسث لاستخدام تصنيف “مخاطر سلسلة التوريد” بدا “واهياً للغاية”، مما أثار تساؤلات حول قوة حجة البنتاغون.
كما أصبح الصراع نقطة محورية في النقاش الأوسع حول أخلاقيات الذكاء الاصطناعي والسياسة العسكرية. يراقب الباحثون والمدافعون عن الحريات المدنية عن كثب، معتبرين القضية اختبارًا مبكرًا لمدى قدرة الوكالات الدفاعية على دفع المختبرات الخاصة لتخفيف القيود المدمجة على الأنظمة المتقدمة.
المخاطر الاستراتيجية للدفاع الأمريكي عن الذكاء الاصطناعي
على الرغم من التصعيد في الخطاب، أكد أموداي أنه “يؤمن بشدة بأهمية استخدام الذكاء الاصطناعي للدفاع عن الولايات المتحدة”. واعتبر أن القضية تتعلق بالتنفيذ المسؤول، وليس بمعارضة الدفاع الوطني، مؤكدًا أن المصداقية طويلة الأمد لقدرات الذكاء الاصطناعي الأمريكية تعتمد على احترام القيم الديمقراطية.
قال ممثل أنثروبي إن المنظمة لا تزال “مستعدة لمواصلة الحوار وملتزمة باستمرارية العمليات للوزارة وجنود الحرب الأمريكيين”. ومع ذلك، مع اقتراب موعد البنتاغون النهائي وتهديدات تصنيف الشركة كمخاطر سلسلة التوريد لا تزال قائمة، يواجه الطرفان ضغطًا لحل الأزمة دون تعطيل الابتكار الحيوي.
وفي النهاية، أصبح الصراع بين أنثروبي والبنتاغون حول الضمانات والمراقبة والاستقلالية حالة مبكرة حاسمة في حوكمة الذكاء الاصطناعي العسكري. وسيشكل نتائجه على الأرجح مستقبل نماذج أنثروبي للذكاء الاصطناعي والنظم المنافسة التي يتم التعاقد معها، وتقييدها، ونشرها عبر عمليات الدفاع الأمريكية.