أنثروبيك، أوبن إيه آي تخفف من لغة السلامة مع تسارع سباق الذكاء الاصطناعي

Decrypt
XAI1.47%

ملخص سريع

  • ذكرت مجلة TIME أن شركة Anthropic ألغت وعدها بوقف التدريب بدون ضمانات حماية مؤكدة.
  • كما أزالت OpenAI كلمة “بشكل آمن” من مهمتها بعد إعادة هيكلتها إلى كيان ربحي.
  • يقول الخبراء إن التغيير يعكس تحولات سياسية واقتصادية وفكرية.

ألغت شركة Anthropic وعدًا رئيسيًا بالسلامة من سياستها للمقياس المسؤول، وفقًا لتقرير من TIME. التغييرات تليّن الالتزام الذي كان يمنع مطور الذكاء الاصطناعي Claude من تدريب أنظمة ذكاء اصطناعي متقدمة بدون ضمانات حماية مؤكدة. يُعيد هذا التحول تشكيل موقع الشركة في سباق الذكاء الاصطناعي ضد منافسيها OpenAI وGoogle وxAI. لطالما قدمت Anthropic نفسها كواحدة من المختبرات الأكثر تركيزًا على السلامة في الصناعة، لكن بموجب السياسة المعدلة، لم تعد تعد بوقف التدريب إذا لم تكن تدابير التخفيف من المخاطر مكتملة. قال Jared Kaplan، كبير العلماء في Anthropic، لـ TIME: “شعرنا أنه لن يفيد أحدًا فعلاً إذا توقفنا عن تدريب نماذج الذكاء الاصطناعي”. “لم نشعر حقًا، مع التقدم السريع للذكاء الاصطناعي، أن من المنطقي أن نلتزم بتعهدات أحادية الجانب… إذا كان المنافسون يتقدمون بسرعة.” 

يأتي هذا التغيير في وقت تجد فيه Anthropic نفسها متورطة في نزاع علني مع وزير الدفاع الأمريكي بيت هيجسث حول رفضها منح البنتاغون وصولًا كاملًا إلى Claude، مما يجعلها المختبر الرئيسي الوحيد بين Google وxAI وMeta وOpenAI الذي يتخذ هذا الموقف. قال إدوارد جيست، باحث السياسات في مؤسسة RAND، إن إطار “السلامة في الذكاء الاصطناعي” السابق نشأ من مجتمع فكري معين سبق نماذج اللغة الكبيرة الحالية. وأضاف جيست لـ Decrypt: “قبل بضع سنوات، كانت هناك مجال لسلامة الذكاء الاصطناعي”. “كانت سلامة الذكاء الاصطناعي مرتبطة بمجموعة معينة من الآراء التي خرجت من مجتمع الأشخاص الذين كانوا يهتمون بقوة الذكاء الاصطناعي قبل وجود هذه النماذج الكبيرة.” قال جيست إن المدافعين الأوائل عن سلامة الذكاء الاصطناعي كانوا يعملون من رؤية مختلفة تمامًا لما سيبدو عليه الذكاء الاصطناعي المتقدم.

“لقد انتهى بهم الأمر إلى تصور المشكلة بطريقة كانت، من بعض النواحي، تتصور شيئًا مختلفًا نوعيًا عن هذه النماذج الكبيرة الحالية، سواء للأفضل أو للأسوأ,” قال جيست. وأضاف أن تغيير اللغة يرسل أيضًا إشارة للمستثمرين وصانعي السياسات. “جزء من ذلك هو إشارة لمختلف الجهات المعنية بأن العديد من هذه الشركات تريد أن تعطي انطباعًا بأنها لا تتراجع في المنافسة الاقتصادية بسبب مخاوف تتعلق بـ’سلامة الذكاء الاصطناعي’,” قال، مضيفًا أن المصطلح نفسه يتغير ليتناسب مع الزمن. ليست Anthropic وحدها التي تعدل لغة السلامة الخاصة بها. ما الذي يحدد سلامة الذكاء الاصطناعي؟ ذكر تقرير حديث لمنظمة الأخبار غير الربحية، The Conversation، كيف أن OpenAI غيرت أيضًا بيان مهمتها في ملف الضرائب لعام 2024، وأزالت كلمة “بشكل آمن”. كان بيان الشركة السابق يعد ببناء ذكاء اصطناعي عام يفيد البشرية “بشكل آمن، دون قيود على تحقيق عائد مالي”. أما النسخة المحدثة فتصور هدفها بأنه “ضمان أن يستفيد الجميع من الذكاء الاصطناعي العام”. قال جيست: “المشكلة في مصطلح أمان الذكاء الاصطناعي هي أن لا أحد يبدو أنه يعرف بالضبط ما يعنيه ذلك”. “ومع ذلك، فإن مصطلح سلامة الذكاء الاصطناعي كان أيضًا محل نزاع.” تؤكد سياسة Anthropic الجديدة على تدابير الشفافية مثل نشر “خرائط طريق السلامة المتقدمة” وتقارير “المخاطر” المنتظمة، وتقول إنها ستؤخر التطوير إذا اعتقدت أن هناك خطرًا كبيرًا من الكارثة.

تأتي تحولات سياسات Anthropic وOpenAI في وقت تسعى فيه الشركات لتعزيز مكانتها التجارية. في وقت سابق من هذا الشهر، أعلنت Anthropic أنها جمعت 30 مليار دولار بقيمة تقديرية حوالي 380 مليار دولار. وفي الوقت نفسه، تجهز OpenAI لجولة تمويل مدعومة من أمازون ومايكروسوفت ونفيديا قد تصل إلى 100 مليار دولار. حصلت كل من Anthropic وOpenAI، إلى جانب Google وxAI، على عقود حكومية مربحة مع وزارة الدفاع الأمريكية. ومع ذلك، يبدو أن عقد Anthropic في مهب الريح حيث يدرس البنتاغون ما إذا كان سيقطع علاقاته مع الشركة بسبب شكاوى الوصول. مع تدفق رأس المال إلى القطاع وتصاعد المنافسة الجيوسياسية، قال حمزة تشودري، قائد الذكاء الاصطناعي والأمن القومي في معهد مستقبل الحياة، إن تغيير السياسة يعكس تحولات في الديناميات السياسية أكثر من كونه محاولة للفوز بعقد من البنتاغون. قال تشودري لـ Decrypt: “لو كان الأمر كذلك، لكانوا قد تراجعوا عما قاله البنتاغون قبل أسبوع”. “داريـو [أمودي] لم يكن ليحضر الاجتماع.” بدلاً من ذلك، قال تشودري إن إعادة الصياغة تعكس نقطة تحول في كيفية حديث شركات الذكاء الاصطناعي عن المخاطر مع تصاعد الضغط السياسي والمنافسة. “تقول Anthropic الآن، ‘انظر، لا يمكننا الاستمرار في الحديث عن السلامة، لا يمكننا التوقف غير المشروط، وسندفع نحو تنظيم أخفّ’,” قال.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات