أخبار Gate News، في 12 مارس، أطلقت شركة إنفيديا نموذج اللغة الكبير المفتوح المصدر Nemotron 3 Super، المصمم خصيصًا لسيناريوهات التطبيقات متعددة الوكيل. يبلغ إجمالي عدد المعلمات في النموذج 120 مليار، ويستخدم بنية مزيجة من Mamba-Transformer MoE، حيث يتم تفعيل 120 مليار معلمة فقط لكل رمز أثناء الاستدلال. التقنية الأساسية “MoE الكامن” (Latent MoE) تقوم بضغط رموز الإدخال إلى مساحة كامن منخفضة المرتبة ثم توجهها إلى شبكة الخبراء، مما يتيح تفعيل 4 خبراء في وقت واحد بتكلفة حسابية لخبير واحد، مع زيادة سرعة الاستدلال حتى 5 أضعاف مقارنة بالجيل السابق Nemotron Super. يدعم النموذج بشكل أصلي نافذة سياق تصل إلى مليون رمز، مما يجعله مناسبًا للوكيلات الذكية المستقلة التي تحتاج إلى الحفاظ على حالة سير العمل لفترات طويلة. في اختبار معيار PinchBench لتقييم عبء عمل الوكيل، حصل Nemotron 3 Super على درجة 85.6%، وهي أعلى درجة بين النماذج المفتوحة المماثلة. كما أطلقت إنفيديا مجموعة بيانات تدريبية تتجاوز 10 تريليون رمز، و15 بيئة تدريب وتقويم معزز، بموجب ترخيص NVIDIA Nemotron Open Model License. النموذج متاح الآن على منصات Hugging Face وbuild.nvidia.com وPerplexity وOpenRouter، ويدعم النشر عبر خدمات السحابة مثل Google Cloud وOracle وAWS Bedrock وAzure. وقد تبنته شركات مثل Perplexity وCodeRabbit وCadence وDassault Systèmes وSiemens بشكل مبكر.