أنثروبي وOpenAI يعدلان بيان قواعد الأمان في سياق تسريع تنافس الذكاء الاصطناعي

صحيفة أودايلي ستيلر ديلي نيوز: قامت شركة Anthropic بإزالة وعد أمني رئيسي من سياستها الخاصة بالتوسع المسؤول، ولم تعد تلتزم بتعليق التدريب عندما لا تكون تدابير التخفيف من المخاطر مكتملة التنفيذ. وقال جارد كابلان، كبير العلماء في Anthropic، لمجلة TIME إنه في ظل التطور السريع للذكاء الاصطناعي، فإن الالتزام الأحادي بوقف التدريب في حال استمرار المنافسين في التقدم لا يحمل معنى حقيقياً.

كما عدّلت شركة OpenAI بيان مهمتها، حيث أُزيلت كلمة “بأمان” من وثيقة IRS لعام 2024، والتي كانت تصف بناء ذكاء اصطناعي عام “يعود بالنفع على البشرية بأمان”، وأصبحت الآن تركز على “ضمان أن يعود الذكاء الاصطناعي العام بالنفع على البشرية جمعاء”.

قال إدوارد جيست، الباحث في معهد RAND للأبحاث السياسية، إن الذكاء الاصطناعي المتقدم الذي تصوره دعاة السلامة في المراحل المبكرة يختلف جوهريًا عن نماذج اللغة الكبيرة الحالية، كما أن تغيير المصطلحات يعكس رغبة الشركات في إرسال إشارة للمستثمرين وصانعي السياسات بأنها لن تتراجع بسبب مخاوف أمنية في المنافسة الاقتصادية.

أنهت شركة Anthropic مؤخرًا جولة تمويل بقيمة 30 مليار دولار، وتقدر قيمتها بنحو 380 مليار دولار؛ بينما تعمل شركة OpenAI على جولة تمويل بقيمة تصل إلى 100 مليار دولار بدعم من أمازون ومايكروسوفت ونفيديا. في الوقت نفسه، واجهت Anthropic خلافًا علنيًا مع وزير الدفاع الأمريكي بيت هيجسث، بسبب رفضها فتح الوصول الكامل إلى Claude لوزارة الدفاع، مما يهدد عقودها الدفاعية بعدم اليقين.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات