في الخامس من يناير خلال مؤتمر CES 2026، سيطر الرئيس التنفيذي لشركة إنفيديا جينسين هوانغ على المسرح بمعطفه الجلدي المميز لمدة ساعة ونصف، مختصراً الرؤية الطموحة للشركة لعصر الذكاء الاصطناعي في عرض واحد عالي التأثير. ظهرت ثمانية إعلانات رئيسية من هذه النافذة القصيرة، أعادت تشكيل المشهد التنافسي من تدريب نماذج الذكاء الاصطناعي نحو ما تراه إنفيديا كحدود المستقبل: الاستنتاج الفعّال من حيث التكلفة على نطاق واسع والذكاء الاصطناعي المدمج في العالم الحقيقي.
الرسالة الخفية وراء هذه الإعلانات تعكس تحولاً جوهرياً في السوق. مع نمو أحجام النماذج بمعدل 10 أضعاف سنوياً وتوسع عدد رموز الاستنتاج بمعدل 5 أضعاف سنوياً—بينما تنخفض تكاليف كل رمز بمقدار 10 أضعاف—يواجه قطاع الحوسبة قيداً جديداً: أصبح الاستنتاج هو عنق الزجاجة، وليس التدريب. تم تصميم بنية Vera Rubin بالكامل من إنفيديا، والتي أعلن عنها قبل ساعة ونصف، حول هذا الواقع.
ستة شرائح مخصصة في رف واحد: إعادة تصور كثافة الأداء في حاسوب إنفيديا الفائق Vera Rubin
في قلب الأجهزة يوجد وحدة Vera Rubin POD، حاسوب فائق مخصص للذكاء الاصطناعي يدمج ست شرائح مملوكة مصممة للعمل بتناغم تام. تميز فلسفة التصميم المشترك هذه عن النهج القابل للتعديل الذي ميز الأجيال السابقة. النظام الرائد، Vera Rubin NVL72، يضم تريليوني ترانزستور في رف واحد، ويقدم أداء استنتاج NVFP4 بمقدار 3.6 إكسافلوبس—قفزة بمقدار خمس مرات مقارنة بجيل Blackwell السابق.
يتم تفصيل الهندسة على النحو التالي:
معالج Vera: مبني حول 88 نواة Olympus مخصصة مع 176 خيطاً من تقنية التعدد الخيالي من إنفيديا. يدعم عرض نطاق ترددي NVLink-C2C بمقدار 1.8 تيرابايت/ثانية، مما يتيح ذاكرة موحدة بين المعالج والبطاقة الرسومية بسلاسة. تتوسع ذاكرة النظام إلى 1.5 تيرابايت—ثلاثة أضعاف معالج Grace—مع عرض نطاق 1.2 تيرابايت/ثانية من نوع LPDDR5X. يعزز المعالج أداء معالجة البيانات ويقدم حوسبة سرية على مستوى الرف، وهي أول تقنية TEE حقيقية تمتد عبر مجالي المعالج والبطاقة الرسومية.
بطاقة Rubin GPU: يقدّم محرك Transformer لتمكين استنتاج NVFP4 بسرعة 50 PFLOPS (5x Blackwell) واستدلال NVFP4 بسرعة 35 PFLOPS (3.5x Blackwell). يدعم ذاكرة HBM4 بسرعة 22 تيرابايت/ثانية—أي 2.8 مرة من الجيل السابق—وهو أمر حاسم للتعامل مع نماذج Mixture-of-Experts (MoE) الضخمة. تضمن التوافقية العكسية انتقالات سلسة من أنظمة Blackwell الحالية.
مفتاح التبديل NVLink 6: تصل سرعة كل مسار إلى 400 جيجابت في الثانية، محققة عرض نطاق ترددي كامل بين البطاقات الرسومية بمقدار 3.6 تيرابايت/ثانية (2x الجيل السابق). يصل إجمالي عرض النطاق بين المفاتيح إلى 28.8 تيرابايت/ثانية، مع حوسبة داخل الشبكة تصل إلى 14.4 تيرافلوبس بدقة FP8. يعمل النظام بتبريد سائل بنسبة 100%، مما يلغي قيود الحرارة.
ConnectX-9 SuperNIC: يوفر عرض نطاق ترددي بمقدار 1.6 تيرابايت/ثانية لكل بطاقة رسومية، قابل للبرمجة بالكامل ومعتمد على البرمجيات لأعباء العمل الكبيرة في الذكاء الاصطناعي.
BlueField-4 DPU: بطاقة NIC ذكية بسرعة 800 جيجابت في الثانية مزودة بمعالج Grace مكون من 64 نواة وConnectX-9. تقوم بتحميل مهام الشبكة والتخزين، مع تعزيز الأمان—مقدمة أداء حسابي بمقدار 6 أضعاف وعرض نطاق ذاكرة 3 أضعاف من الجيل السابق، مع وصول أسرع بمقدار مرتين إلى التخزين عبر البطاقة الرسومية.
Spectrum-X 102.4T CPO: مفتاح بصري مدمج يستخدم تقنية SerDes بسرعة 200 جيجابت في الثانية، يوفر 102.4 تيرابايت/ثانية لكل ASIC. يتيح التكوين عالي الكثافة المكون من 512 منفذ (800 جيجابت في الثانية لكل منفذ) أن يعمل النظام ككيان موحد بدلاً من مكونات معزولة.
انخفض زمن التجميع من ساعتين إلى خمس دقائق، وتم القضاء على نوافذ الصيانة عبر بنية التبديل NVLink بدون توقف. يجعل التصميم المعياري للنظام، الذي أصبح خالياً من الكابلات والمراوح على مستوى صينية الحوسبة، الخدمة أسرع بمقدار 18 مرة مقارنة بالأجيال السابقة. تترجم هذه المكاسب التشغيلية مباشرة إلى تقليل TCO لمراكز البيانات وتحسين زمن التشغيل.
ثلاثة منصات متخصصة تستهدف القيد الحقيقي في استنتاج الذكاء الاصطناعي: تخزين السياق والمرور
بينما يتحسن الأداء الخام بمقدار 5 أضعاف، يطرح الاستنتاج مشكلة مختلفة—لا يمكن لحلقات GPU وحدها حلها. قدمت إنفيديا ثلاثة منتجات مدمجة لمعالجة هذه الفجوة، تستهدف كل منها عنق الزجاجة المحدد في عالم الاستنتاج الموسع.
Spectrum-X الألياف البصرية المدمجة في الشبكة: الشبكة كمرفق حيوي
يستهلك التبديل الشبكي التقليدي طاقة هائلة ويقدم تأخيراً يقلل من أداء الاستنتاج. يحقق Spectrum-X Ethernet CPO، المبني على بنية Spectrum-X مع تصميم مكوّن من شريحتين، كفاءة طاقة بمقدار 5 أضعاف، وموثوقية أعلى بمقدار 10 أضعاف، وتحسين زمن التشغيل للتطبيقات بمقدار 5 أضعاف. يعمل النظام المكون من 512 منفذ بسرعة 800 جيجابت في الثانية لكل منفذ، ويصل إلى سعة كلية قدرها 102.4 تيرابايت/ثانية.
النتائج مباشرة: معالجة المزيد من الرموز يومياً يؤدي إلى انخفاض التكلفة لكل رمز، مما يقلل في النهاية TCO لمراكز البيانات بمقدار تعتبره إنفيديا تحويلاً كبيراً لمشغلي السحابة.
منصة تخزين ذاكرة السياق للاستنتاج: جعل الكاشات KV عملية على نطاق واسع
تتطلب أعباء عمل الاستنتاج لأنظمة الذكاء الاصطناعي التفاعلية—مثل الحوار متعدد الأدوار، وتوليد المعزز بالمعلومات (RAG)، والتفكير متعدد الخطوات—تخزين سياق دائم. تواجه الأنظمة الحالية مفارقة: ذاكرة GPU سريعة لكنها نادرة؛ والتخزين الشبكي وفير لكنه بطيء جدًا للوصول إلى السياق القصير الأمد. تربط منصة إنفيديا لتخزين ذاكرة سياق الاستنتاج بين هذين الطرفين، معاملة السياق كنوع بيانات من الدرجة الأولى ضمن البنية التحتية.
مدعومة بواسطة BlueField-4 وSpectrum-X، تربط هذه الطبقة الجديدة من التخزين عنقود GPU عبر وصلات NVLink مخصصة. بدلاً من إعادة حساب الكاشات للقيم المفتاحية والقيم في كل خطوة استنتاج، يحتفظ النظام بها في تخزين محسّن، محققاً أداء استنتاج بمقدار 5 أضعاف وكفاءة طاقة بمقدار 5 أضعاف للأعباء التي تعتمد على السياق. بالنسبة لأنظمة الذكاء الاصطناعي التي تتطور من روبوتات الدردشة غير الحاسوبية إلى وكلاء ذوي حالة تخزن وتفكر عبر ملايين الرموز، يزيل هذا الإضافة المعمارية عنق الزجاجة الأساسي في التوسع.
تتعاون إنفيديا مع شركاء التخزين لدمج هذه المنصة مباشرة في أنظمة مبنية على Vera Rubin، معتبرة إياها عنصرًا أساسيًا للبنية التحتية للذكاء الاصطناعي الجاهزة، بدلاً من كونها إضافة لاحقة.
إصدار Vera Rubin من نظام DGX SuperPOD(: مخطط المصنع للاستنتاج الأمثل من حيث التكلفة
يعمل DGX SuperPOD كنموذج مرجعي من إنفيديا لنشر استنتاج الذكاء الاصطناعي على نطاق واسع. مبني على ثمانية أنظمة Vera Rubin NVL72، يستفيد من NVLink 6 لتمديد الشبكة عمودياً، و Spectrum-X Ethernet للتوسع الأفقي، ومنصة تخزين ذاكرة سياق الاستنتاج لتنظيم السياق. يدير جميع الطبقات برنامج NVIDIA Mission Control.
النتيجة: مقارنة بالبنية التحتية في حقبة Blackwell، يتطلب تدريب نماذج MoE ذات الحجم المماثل 1/4 عدد وحدات GPU، وتنخفض تكاليف الرموز للاستنتاج الكبير من 1/10. بالنسبة لمزودي السحابة والمؤسسات، يمثل ذلك رافعة اقتصادية هائلة—نفس عبء العمل يُعالج على عدد أقل بكثير من وحدات GPU، مما يوفر مليارات الدولارات في التوفير على البنية التحتية عند التوسع.
Nemotron، المخططات، والتسريع مفتوح المصدر: بناء أنظمة ذكاء اصطناعي متعددة النماذج ومتعددة السحابات
متزامناً مع إعلانات الأجهزة، أعلنت إنفيديا عن أكبر توسعة لمصدر مفتوح حتى الآن. في 2025، ساهمت الشركة بـ 650 نموذج مفتوح المصدر و250 مجموعة بيانات مفتوحة المصدر في Hugging Face، لتصبح أكبر مساهم في المنصة. تظهر المقاييس السائدة أن استخدام النماذج مفتوحة المصدر نما بمقدار 20 ضعفاً خلال العام الماضي، ويمثل حوالي 25% من جميع رموز الاستنتاج.
توسع الشركة عائلة Nemotron بنماذج جديدة: أنظمة RAG التفاعلية، نماذج السلامة المتخصصة، ونماذج الكلام المصممة لتطبيقات الذكاء الاصطناعي متعددة الوسائط. والأهم، أن إنفيديا تشحن هذه النماذج ليس كمكونات معزولة، بل كجزء من إطار أكبر يُسمى Blueprints.
يجسد Blueprints رؤية معمارية رئيسية استخلصها جينسين هوانغ من ملاحظة Perplexity ومنصات الوكيل المبكرة للذكاء الاصطناعي: أن الذكاء الاصطناعي التفاعلي من الدرجة الإنتاجية هو بطبيعته متعدد النماذج، ومتعدد السحابات، وهجين سحابي. يتيح الإطار للمطورين:
استدعاء واجهات برمجة التطبيقات والأدوات الخارجية بسلاسة )email أنظمة، واجهات تحكم الروبوت، خدمات التقويم(
دمج المدخلات متعددة الوسائط—نص، صوت، صور، بيانات حساسات الروبوت—في تمثيلات موحدة
كانت هذه القدرات، التي كانت في السابق من خيال الخيال العلمي، الآن متاحة للمطورين عبر تكامل SaaS من إنفيديا مع Blueprints. تظهر تطبيقات مماثلة على منصات المؤسسات مثل ServiceNow و Snowflake، مما يشير إلى تحول نحو التفكير على مستوى الأنظمة في الذكاء الاصطناعي المؤسسي.
الاستنتاج الاستراتيجي: إنفيديا تمكّن في الوقت ذاته من الوصول إلى قدرات الذكاء الاصطناعي المتقدمة، مع ترسيخ أنظمتها البرمجية كمعيار فعلي لبناء وكلاء الذكاء الاصطناعي.
الذكاء الاصطناعي المادي: من المحاكاة إلى الواقع—نقطة التحول في الروبوتات وAlpha-Mayo
بعد البنية التحتية والنماذج المفتوحة، انتقل هوانغ إلى ما وصفه بالحدود الحاسمة: الذكاء الاصطناعي المادي—أنظمة تدرك العالم المادي، وتفكر فيه، وتولد أفعالاً مباشرة. يعكس الانتقال عصور الذكاء الاصطناعي السابقة: الإدراكي، والتوليدي، والوكيل. يمثل الذكاء الاصطناعي المادي المرحلة التي يدخل فيها الذكاء إلى أنظمة مجسدة.
حدد هوانغ بنية ثلاثية الحواسيب لتطوير الذكاء الاصطناعي المادي:
حواسيب التدريب )DGX(: لبناء النماذج الأساسية
حواسيب الاستنتاج )شرائح مدمجة في الروبوتات/المركبات(: لاتخاذ القرارات في الوقت الحقيقي
حواسيب المحاكاة )Omniverse(: لإنشاء بيانات تركيبية والتحقق من التفكير الفيزيائي
النموذج الأساسي الذي يدعم هذا المكدس هو نموذج أساس عالم الكواكب Cosmos World Foundation Model، الذي ينسق بين اللغة، والصور، والهندسة ثلاثية الأبعاد، وقوانين الفيزياء لدعم كامل خط الأنابيب من المحاكاة إلى النشر المباشر.
) Alpha-Mayo: القيادة الذاتية كنقطة انطلاق
تمثل القيادة الذاتية أول فرصة نشر واسعة النطاق للذكاء الاصطناعي المادي. أطلقت إنفيديا Alpha-Mayo، نظاماً كاملاً يتكون من نماذج مفتوحة المصدر، وأدوات محاكاة، ومجموعات بيانات لتطوير القيادة الذاتية من المستوى 4.
يعمل Alpha-Mayo على أساس منهجية تعتمد على التفكير بدلاً من السلوك المُتعلم بالكامل. يكسر النموذج الذي يضم 10 مليارات معلمة المشكلات إلى خطوات منفصلة، ويفكر في الاحتمالات، ويختار المسار الأكثر أماناً. تُمكّن هذه الهندسة المركبات من التعامل مع حالات استثنائية غير مسبوقة—مثل فشل إشارة المرور عند تقاطعات مزدحمة—باستخدام التفكير المستند إلى التعلم بدلاً من أنماط الحفظ.
في النشر الحقيقي، يقبل النظام أوامر نصية، وتغذية كاميرات محيطية، وسجل حالة المركبة، ومدخلات الملاحة، ويخرج مسار قيادة وتفسيراً منطقيًا باللغة الطبيعية. تعتبر هذه الشفافية حاسمة للحصول على الاعتماد التنظيمي وثقة الركاب.
مرسيدس-بنز CLA: أكدت إنفيديا أن مرسيدس-بنز CLA الجديدة، المدعومة بواسطة Alpha-Mayo، قيد الإنتاج بالفعل وحصلت مؤخراً على أعلى تصنيف سلامة من NCAP ###برنامج تقييم السيارات الجديد(. توفر السيارة قيادة بدون يدين على الطرق السريعة والتنقل الحضري الذاتي من البداية إلى النهاية، مع قدرات محسنة ستُطرح في السوق الأمريكية لاحقاً في 2026. خضعت كل قطعة من الكود، والمعالج، ومكون النظام لشهادة سلامة رسمية.
كما أطلقت إنفيديا:
مجموعة بيانات جزئية لتدريب Alpha-Mayo لتمكين التخصيص البحثي
Alpha-Sim، إطار محاكاة مفتوح المصدر لتقييم أداء Alpha-Mayo
أدوات تتيح للمطورين دمج البيانات الحقيقية والتركيبية لتطبيقات القيادة الذاتية المخصصة
) شراكات الروبوتات ودمجها الصناعي
إلى جانب النقل، أعلنت إنفيديا عن تعاونات واسعة في مجال الروبوتات. تقود شركات رائدة—مثل Boston Dynamics، Franka Robotics، Surgical، LG Electronics، NEURA، XRLabs، و Logic Robotics—نظمًا تعتمد على منصة إنفيديا Isaac ###المحاكاة ومنصة التطوير( و GR00T )نموذج أساسي للروبوتات(.
بالإضافة إلى ذلك، كشفت إنفيديا عن شراكة استراتيجية مع سيمنز. تدمج هذه الشراكة مكتبات CUDA-X، ونماذج الذكاء الاصطناعي، ونماذج Omniverse الرقمية في أدوات EDA، وCAE، والنماذج الرقمية من سيمنز. مما يضع الذكاء الاصطناعي المادي عبر كامل دورة الحياة من التصميم والمحاكاة إلى التصنيع والتشغيل الميداني.
الاستراتيجية: سرعة المصدر المفتوح مقابل قفل الأجهزة
اختصر العرض الرئيسي الذي استمر ساعة ونصف استراتيجية إنفيديا المزدوجة مع اقترابها من عصر الاستنتاج. من ناحية، تتجه الشركة بقوة نحو فتح المصادر، والنماذج، وأدوات التطوير. ومن ناحية أخرى، تجعل تصميماتها للأجهزة، والربط، والنظم أكثر لا غنى عنها من خلال تحسين عميق مشترك.
وهذا يخلق دورة فاضلة:
نماذج وأدوات مفتوحة المصدر تسرع الاعتماد
الاعتماد الأوسع يدفع الطلب على الاستنتاج على نطاق واسع
يتطلب التوسع في الاستنتاج أجهزة إنفيديا المتخصصة لتحقيق أداء فعال من حيث التكلفة
مع توسع حجم الرموز، يُصبح العملاء مرتبطين ببنية إنفيديا التحتية
تصميم النظام من مستوى النظم—من وصلات NVLink 6 إلى منصة تخزين ذاكرة سياق الاستنتاج—يجعل من الصعب على المنافسين تكرار ميزة إجمالي تكلفة الملكية التي تتمتع بها إنفيديا. ما يبدو كـ"فتح" من قبل إنفيديا عبر Nemotron وBlueprints يعزز فعلياً خندقها التنافسي بجعل منصتها الخيار الواضح للمطورين الباحثين عن المرونة والأداء على حد سواء، في عصر الاستنتاج والذكاء الاصطناعي المادي.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
جينسين هوانغ قدم ثمانية إعلانات رئيسية في ساعة ونصف فقط، معرّفًا مسار شركة إنفيديا نحو الهيمنة في الاستنتاج والروبوتات
في الخامس من يناير خلال مؤتمر CES 2026، سيطر الرئيس التنفيذي لشركة إنفيديا جينسين هوانغ على المسرح بمعطفه الجلدي المميز لمدة ساعة ونصف، مختصراً الرؤية الطموحة للشركة لعصر الذكاء الاصطناعي في عرض واحد عالي التأثير. ظهرت ثمانية إعلانات رئيسية من هذه النافذة القصيرة، أعادت تشكيل المشهد التنافسي من تدريب نماذج الذكاء الاصطناعي نحو ما تراه إنفيديا كحدود المستقبل: الاستنتاج الفعّال من حيث التكلفة على نطاق واسع والذكاء الاصطناعي المدمج في العالم الحقيقي.
الرسالة الخفية وراء هذه الإعلانات تعكس تحولاً جوهرياً في السوق. مع نمو أحجام النماذج بمعدل 10 أضعاف سنوياً وتوسع عدد رموز الاستنتاج بمعدل 5 أضعاف سنوياً—بينما تنخفض تكاليف كل رمز بمقدار 10 أضعاف—يواجه قطاع الحوسبة قيداً جديداً: أصبح الاستنتاج هو عنق الزجاجة، وليس التدريب. تم تصميم بنية Vera Rubin بالكامل من إنفيديا، والتي أعلن عنها قبل ساعة ونصف، حول هذا الواقع.
ستة شرائح مخصصة في رف واحد: إعادة تصور كثافة الأداء في حاسوب إنفيديا الفائق Vera Rubin
في قلب الأجهزة يوجد وحدة Vera Rubin POD، حاسوب فائق مخصص للذكاء الاصطناعي يدمج ست شرائح مملوكة مصممة للعمل بتناغم تام. تميز فلسفة التصميم المشترك هذه عن النهج القابل للتعديل الذي ميز الأجيال السابقة. النظام الرائد، Vera Rubin NVL72، يضم تريليوني ترانزستور في رف واحد، ويقدم أداء استنتاج NVFP4 بمقدار 3.6 إكسافلوبس—قفزة بمقدار خمس مرات مقارنة بجيل Blackwell السابق.
يتم تفصيل الهندسة على النحو التالي:
معالج Vera: مبني حول 88 نواة Olympus مخصصة مع 176 خيطاً من تقنية التعدد الخيالي من إنفيديا. يدعم عرض نطاق ترددي NVLink-C2C بمقدار 1.8 تيرابايت/ثانية، مما يتيح ذاكرة موحدة بين المعالج والبطاقة الرسومية بسلاسة. تتوسع ذاكرة النظام إلى 1.5 تيرابايت—ثلاثة أضعاف معالج Grace—مع عرض نطاق 1.2 تيرابايت/ثانية من نوع LPDDR5X. يعزز المعالج أداء معالجة البيانات ويقدم حوسبة سرية على مستوى الرف، وهي أول تقنية TEE حقيقية تمتد عبر مجالي المعالج والبطاقة الرسومية.
بطاقة Rubin GPU: يقدّم محرك Transformer لتمكين استنتاج NVFP4 بسرعة 50 PFLOPS (5x Blackwell) واستدلال NVFP4 بسرعة 35 PFLOPS (3.5x Blackwell). يدعم ذاكرة HBM4 بسرعة 22 تيرابايت/ثانية—أي 2.8 مرة من الجيل السابق—وهو أمر حاسم للتعامل مع نماذج Mixture-of-Experts (MoE) الضخمة. تضمن التوافقية العكسية انتقالات سلسة من أنظمة Blackwell الحالية.
مفتاح التبديل NVLink 6: تصل سرعة كل مسار إلى 400 جيجابت في الثانية، محققة عرض نطاق ترددي كامل بين البطاقات الرسومية بمقدار 3.6 تيرابايت/ثانية (2x الجيل السابق). يصل إجمالي عرض النطاق بين المفاتيح إلى 28.8 تيرابايت/ثانية، مع حوسبة داخل الشبكة تصل إلى 14.4 تيرافلوبس بدقة FP8. يعمل النظام بتبريد سائل بنسبة 100%، مما يلغي قيود الحرارة.
ConnectX-9 SuperNIC: يوفر عرض نطاق ترددي بمقدار 1.6 تيرابايت/ثانية لكل بطاقة رسومية، قابل للبرمجة بالكامل ومعتمد على البرمجيات لأعباء العمل الكبيرة في الذكاء الاصطناعي.
BlueField-4 DPU: بطاقة NIC ذكية بسرعة 800 جيجابت في الثانية مزودة بمعالج Grace مكون من 64 نواة وConnectX-9. تقوم بتحميل مهام الشبكة والتخزين، مع تعزيز الأمان—مقدمة أداء حسابي بمقدار 6 أضعاف وعرض نطاق ذاكرة 3 أضعاف من الجيل السابق، مع وصول أسرع بمقدار مرتين إلى التخزين عبر البطاقة الرسومية.
Spectrum-X 102.4T CPO: مفتاح بصري مدمج يستخدم تقنية SerDes بسرعة 200 جيجابت في الثانية، يوفر 102.4 تيرابايت/ثانية لكل ASIC. يتيح التكوين عالي الكثافة المكون من 512 منفذ (800 جيجابت في الثانية لكل منفذ) أن يعمل النظام ككيان موحد بدلاً من مكونات معزولة.
انخفض زمن التجميع من ساعتين إلى خمس دقائق، وتم القضاء على نوافذ الصيانة عبر بنية التبديل NVLink بدون توقف. يجعل التصميم المعياري للنظام، الذي أصبح خالياً من الكابلات والمراوح على مستوى صينية الحوسبة، الخدمة أسرع بمقدار 18 مرة مقارنة بالأجيال السابقة. تترجم هذه المكاسب التشغيلية مباشرة إلى تقليل TCO لمراكز البيانات وتحسين زمن التشغيل.
ثلاثة منصات متخصصة تستهدف القيد الحقيقي في استنتاج الذكاء الاصطناعي: تخزين السياق والمرور
بينما يتحسن الأداء الخام بمقدار 5 أضعاف، يطرح الاستنتاج مشكلة مختلفة—لا يمكن لحلقات GPU وحدها حلها. قدمت إنفيديا ثلاثة منتجات مدمجة لمعالجة هذه الفجوة، تستهدف كل منها عنق الزجاجة المحدد في عالم الاستنتاج الموسع.
Spectrum-X الألياف البصرية المدمجة في الشبكة: الشبكة كمرفق حيوي
يستهلك التبديل الشبكي التقليدي طاقة هائلة ويقدم تأخيراً يقلل من أداء الاستنتاج. يحقق Spectrum-X Ethernet CPO، المبني على بنية Spectrum-X مع تصميم مكوّن من شريحتين، كفاءة طاقة بمقدار 5 أضعاف، وموثوقية أعلى بمقدار 10 أضعاف، وتحسين زمن التشغيل للتطبيقات بمقدار 5 أضعاف. يعمل النظام المكون من 512 منفذ بسرعة 800 جيجابت في الثانية لكل منفذ، ويصل إلى سعة كلية قدرها 102.4 تيرابايت/ثانية.
النتائج مباشرة: معالجة المزيد من الرموز يومياً يؤدي إلى انخفاض التكلفة لكل رمز، مما يقلل في النهاية TCO لمراكز البيانات بمقدار تعتبره إنفيديا تحويلاً كبيراً لمشغلي السحابة.
منصة تخزين ذاكرة السياق للاستنتاج: جعل الكاشات KV عملية على نطاق واسع
تتطلب أعباء عمل الاستنتاج لأنظمة الذكاء الاصطناعي التفاعلية—مثل الحوار متعدد الأدوار، وتوليد المعزز بالمعلومات (RAG)، والتفكير متعدد الخطوات—تخزين سياق دائم. تواجه الأنظمة الحالية مفارقة: ذاكرة GPU سريعة لكنها نادرة؛ والتخزين الشبكي وفير لكنه بطيء جدًا للوصول إلى السياق القصير الأمد. تربط منصة إنفيديا لتخزين ذاكرة سياق الاستنتاج بين هذين الطرفين، معاملة السياق كنوع بيانات من الدرجة الأولى ضمن البنية التحتية.
مدعومة بواسطة BlueField-4 وSpectrum-X، تربط هذه الطبقة الجديدة من التخزين عنقود GPU عبر وصلات NVLink مخصصة. بدلاً من إعادة حساب الكاشات للقيم المفتاحية والقيم في كل خطوة استنتاج، يحتفظ النظام بها في تخزين محسّن، محققاً أداء استنتاج بمقدار 5 أضعاف وكفاءة طاقة بمقدار 5 أضعاف للأعباء التي تعتمد على السياق. بالنسبة لأنظمة الذكاء الاصطناعي التي تتطور من روبوتات الدردشة غير الحاسوبية إلى وكلاء ذوي حالة تخزن وتفكر عبر ملايين الرموز، يزيل هذا الإضافة المعمارية عنق الزجاجة الأساسي في التوسع.
تتعاون إنفيديا مع شركاء التخزين لدمج هذه المنصة مباشرة في أنظمة مبنية على Vera Rubin، معتبرة إياها عنصرًا أساسيًا للبنية التحتية للذكاء الاصطناعي الجاهزة، بدلاً من كونها إضافة لاحقة.
إصدار Vera Rubin من نظام DGX SuperPOD(: مخطط المصنع للاستنتاج الأمثل من حيث التكلفة
يعمل DGX SuperPOD كنموذج مرجعي من إنفيديا لنشر استنتاج الذكاء الاصطناعي على نطاق واسع. مبني على ثمانية أنظمة Vera Rubin NVL72، يستفيد من NVLink 6 لتمديد الشبكة عمودياً، و Spectrum-X Ethernet للتوسع الأفقي، ومنصة تخزين ذاكرة سياق الاستنتاج لتنظيم السياق. يدير جميع الطبقات برنامج NVIDIA Mission Control.
النتيجة: مقارنة بالبنية التحتية في حقبة Blackwell، يتطلب تدريب نماذج MoE ذات الحجم المماثل 1/4 عدد وحدات GPU، وتنخفض تكاليف الرموز للاستنتاج الكبير من 1/10. بالنسبة لمزودي السحابة والمؤسسات، يمثل ذلك رافعة اقتصادية هائلة—نفس عبء العمل يُعالج على عدد أقل بكثير من وحدات GPU، مما يوفر مليارات الدولارات في التوفير على البنية التحتية عند التوسع.
Nemotron، المخططات، والتسريع مفتوح المصدر: بناء أنظمة ذكاء اصطناعي متعددة النماذج ومتعددة السحابات
متزامناً مع إعلانات الأجهزة، أعلنت إنفيديا عن أكبر توسعة لمصدر مفتوح حتى الآن. في 2025، ساهمت الشركة بـ 650 نموذج مفتوح المصدر و250 مجموعة بيانات مفتوحة المصدر في Hugging Face، لتصبح أكبر مساهم في المنصة. تظهر المقاييس السائدة أن استخدام النماذج مفتوحة المصدر نما بمقدار 20 ضعفاً خلال العام الماضي، ويمثل حوالي 25% من جميع رموز الاستنتاج.
توسع الشركة عائلة Nemotron بنماذج جديدة: أنظمة RAG التفاعلية، نماذج السلامة المتخصصة، ونماذج الكلام المصممة لتطبيقات الذكاء الاصطناعي متعددة الوسائط. والأهم، أن إنفيديا تشحن هذه النماذج ليس كمكونات معزولة، بل كجزء من إطار أكبر يُسمى Blueprints.
يجسد Blueprints رؤية معمارية رئيسية استخلصها جينسين هوانغ من ملاحظة Perplexity ومنصات الوكيل المبكرة للذكاء الاصطناعي: أن الذكاء الاصطناعي التفاعلي من الدرجة الإنتاجية هو بطبيعته متعدد النماذج، ومتعدد السحابات، وهجين سحابي. يتيح الإطار للمطورين:
كانت هذه القدرات، التي كانت في السابق من خيال الخيال العلمي، الآن متاحة للمطورين عبر تكامل SaaS من إنفيديا مع Blueprints. تظهر تطبيقات مماثلة على منصات المؤسسات مثل ServiceNow و Snowflake، مما يشير إلى تحول نحو التفكير على مستوى الأنظمة في الذكاء الاصطناعي المؤسسي.
الاستنتاج الاستراتيجي: إنفيديا تمكّن في الوقت ذاته من الوصول إلى قدرات الذكاء الاصطناعي المتقدمة، مع ترسيخ أنظمتها البرمجية كمعيار فعلي لبناء وكلاء الذكاء الاصطناعي.
الذكاء الاصطناعي المادي: من المحاكاة إلى الواقع—نقطة التحول في الروبوتات وAlpha-Mayo
بعد البنية التحتية والنماذج المفتوحة، انتقل هوانغ إلى ما وصفه بالحدود الحاسمة: الذكاء الاصطناعي المادي—أنظمة تدرك العالم المادي، وتفكر فيه، وتولد أفعالاً مباشرة. يعكس الانتقال عصور الذكاء الاصطناعي السابقة: الإدراكي، والتوليدي، والوكيل. يمثل الذكاء الاصطناعي المادي المرحلة التي يدخل فيها الذكاء إلى أنظمة مجسدة.
حدد هوانغ بنية ثلاثية الحواسيب لتطوير الذكاء الاصطناعي المادي:
النموذج الأساسي الذي يدعم هذا المكدس هو نموذج أساس عالم الكواكب Cosmos World Foundation Model، الذي ينسق بين اللغة، والصور، والهندسة ثلاثية الأبعاد، وقوانين الفيزياء لدعم كامل خط الأنابيب من المحاكاة إلى النشر المباشر.
) Alpha-Mayo: القيادة الذاتية كنقطة انطلاق
تمثل القيادة الذاتية أول فرصة نشر واسعة النطاق للذكاء الاصطناعي المادي. أطلقت إنفيديا Alpha-Mayo، نظاماً كاملاً يتكون من نماذج مفتوحة المصدر، وأدوات محاكاة، ومجموعات بيانات لتطوير القيادة الذاتية من المستوى 4.
يعمل Alpha-Mayo على أساس منهجية تعتمد على التفكير بدلاً من السلوك المُتعلم بالكامل. يكسر النموذج الذي يضم 10 مليارات معلمة المشكلات إلى خطوات منفصلة، ويفكر في الاحتمالات، ويختار المسار الأكثر أماناً. تُمكّن هذه الهندسة المركبات من التعامل مع حالات استثنائية غير مسبوقة—مثل فشل إشارة المرور عند تقاطعات مزدحمة—باستخدام التفكير المستند إلى التعلم بدلاً من أنماط الحفظ.
في النشر الحقيقي، يقبل النظام أوامر نصية، وتغذية كاميرات محيطية، وسجل حالة المركبة، ومدخلات الملاحة، ويخرج مسار قيادة وتفسيراً منطقيًا باللغة الطبيعية. تعتبر هذه الشفافية حاسمة للحصول على الاعتماد التنظيمي وثقة الركاب.
مرسيدس-بنز CLA: أكدت إنفيديا أن مرسيدس-بنز CLA الجديدة، المدعومة بواسطة Alpha-Mayo، قيد الإنتاج بالفعل وحصلت مؤخراً على أعلى تصنيف سلامة من NCAP ###برنامج تقييم السيارات الجديد(. توفر السيارة قيادة بدون يدين على الطرق السريعة والتنقل الحضري الذاتي من البداية إلى النهاية، مع قدرات محسنة ستُطرح في السوق الأمريكية لاحقاً في 2026. خضعت كل قطعة من الكود، والمعالج، ومكون النظام لشهادة سلامة رسمية.
كما أطلقت إنفيديا:
) شراكات الروبوتات ودمجها الصناعي
إلى جانب النقل، أعلنت إنفيديا عن تعاونات واسعة في مجال الروبوتات. تقود شركات رائدة—مثل Boston Dynamics، Franka Robotics، Surgical، LG Electronics، NEURA، XRLabs، و Logic Robotics—نظمًا تعتمد على منصة إنفيديا Isaac ###المحاكاة ومنصة التطوير( و GR00T )نموذج أساسي للروبوتات(.
بالإضافة إلى ذلك، كشفت إنفيديا عن شراكة استراتيجية مع سيمنز. تدمج هذه الشراكة مكتبات CUDA-X، ونماذج الذكاء الاصطناعي، ونماذج Omniverse الرقمية في أدوات EDA، وCAE، والنماذج الرقمية من سيمنز. مما يضع الذكاء الاصطناعي المادي عبر كامل دورة الحياة من التصميم والمحاكاة إلى التصنيع والتشغيل الميداني.
الاستراتيجية: سرعة المصدر المفتوح مقابل قفل الأجهزة
اختصر العرض الرئيسي الذي استمر ساعة ونصف استراتيجية إنفيديا المزدوجة مع اقترابها من عصر الاستنتاج. من ناحية، تتجه الشركة بقوة نحو فتح المصادر، والنماذج، وأدوات التطوير. ومن ناحية أخرى، تجعل تصميماتها للأجهزة، والربط، والنظم أكثر لا غنى عنها من خلال تحسين عميق مشترك.
وهذا يخلق دورة فاضلة:
تصميم النظام من مستوى النظم—من وصلات NVLink 6 إلى منصة تخزين ذاكرة سياق الاستنتاج—يجعل من الصعب على المنافسين تكرار ميزة إجمالي تكلفة الملكية التي تتمتع بها إنفيديا. ما يبدو كـ"فتح" من قبل إنفيديا عبر Nemotron وBlueprints يعزز فعلياً خندقها التنافسي بجعل منصتها الخيار الواضح للمطورين الباحثين عن المرونة والأداء على حد سواء، في عصر الاستنتاج والذكاء الاصطناعي المادي.