صحيفة أودايلي ستيلر ديلي نيوز: قامت شركة Anthropic بإزالة وعد أمني رئيسي من سياستها الخاصة بالتوسع المسؤول، ولم تعد تلتزم بتعليق التدريب عندما لا تكون تدابير التخفيف من المخاطر مكتملة التنفيذ. وقال جارد كابلان، كبير العلماء في Anthropic، لمجلة TIME إنه في ظل التطور السريع للذكاء الاصطناعي، فإن الالتزام الأحادي بوقف التدريب في حال استمرار المنافسين في التقدم لا يحمل معنى حقيقياً.
كما عدّلت شركة OpenAI بيان مهمتها، حيث أُزيلت كلمة “بأمان” من وثيقة IRS لعام 2024، والتي كانت تصف بناء ذكاء اصطناعي عام “يعود بالنفع على البشرية بأمان”، وأصبحت الآن تركز على “ضمان أن يعود الذكاء الاصطناعي العام بالنفع على البشرية جمعاء”.
قال إدوارد جيست، الباحث في معهد RAND للأبحاث السياسية، إن الذكاء الاصطناعي المتقدم الذي تصوره دعاة السلامة في المراحل المبكرة يختلف جوهريًا عن نماذج اللغة الكبيرة الحالية، كما أن تغيير المصطلحات يعكس رغبة الشركات في إرسال إشارة للمستثمرين وصانعي السياسات بأنها لن تتراجع بسبب مخاوف أمنية في المنافسة الاقتصادية.
أنهت شركة Anthropic مؤخرًا جولة تمويل بقيمة 30 مليار دولار، وتقدر قيمتها بنحو 380 مليار دولار؛ بينما تعمل شركة OpenAI على جولة تمويل بقيمة تصل إلى 100 مليار دولار بدعم من أمازون ومايكروسوفت ونفيديا. في الوقت نفسه، واجهت Anthropic خلافًا علنيًا مع وزير الدفاع الأمريكي بيت هيجسث، بسبب رفضها فتح الوصول الكامل إلى Claude لوزارة الدفاع، مما يهدد عقودها الدفاعية بعدم اليقين.