نتائج البحث عن "MOE"
اليوم
06:25

فريق ByteDance Seed يطلق Seed3D 2.0 بدقة هندسية محسّنة وتوليد للمواد

رسالة أخبار Gate في 23 أبريل — أطلقت فرقة البذور لدى ByteDance Seed3D 2.0، وهو نموذج نص إلى ثلاثي الأبعاد (text-to-3D) يقوم بتوليد أصول ثلاثية الأبعاد مزخرفة انطلاقًا من صورة واحدة. يركّز التحديث على الدقة الهندسية والواقعية في المواد، حيث أصبح الـ API متاحًا الآن على Volcano Ark. تستخدم التوليدات الهندسية استراتيجية مرحلتين من الإجمالي إلى التفصيلي (Coarse-to-Fine): نموذج DiT عالي المعلمات يُنشئ أولاً طوبولوجيا على مستوى تقريبي، ثم يستعيد الحواف الحادة والأسطح الدقيقة. كما يستخدم توليد المواد بنية MoE Mixture of Experts لتعزيز تفاصيل عالية الدقة، مع دمج VLM Vision Language Model priors لتحسين ثبات تفكيك المواد تحت ظروف إضاءة غير معروفة، مع إخراج خرائط PBR كاملة متوافقة مع مسارات العرض القياسية. أجرى ستون مُقيِّمًا لديهم خبرة في نمذجة ثلاثية الأبعاد مقارنات عمياء عبر نحو 200 حالة اختبار، حيث تمت مقارنة Seed3D 2.0 مقابل Hunyuan3D-2.5/3.1 وTripo 3.0 وRodin Gen2 وHiTem v2.0 والإصدار السابق Seed3D 1.0. تراوحت معدلات تفضيل التوليد الهندسي بين 65.1% و98.3%، بينما تجاوزت معدلات تفضيل الأصول ثلاثية الأبعاد المزخرفة 69% في جميع المقارنات. بالنسبة للتطبيقات اللاحقة، يمكن لـ Seed3D 2.0 تفكيك الأصول ثلاثية الأبعاد إلى مكوّنات مستقلة مع معلومات مشتركة، وإخراجها بتنسيق URDF متوافق مع Isaac Sim ومحركات محاكاة أخرى لسيناريوهات التفاعل الديناميكي مثل الإمساك الروبوتي. وعلى مستوى المشهد، يدعم إدخال النص أو صورًا متعددة الزوايا أو الفيديو، مع دمج عدة أصول لتوليد مشاهد كاملة.
المزيد
01:51

ميتوان تفتح مصدر LongCat-Next: فهم بصري موحد، توليد، ونطق بوسائط 3B من المعلمات

فريق Meituan Longcat مفتوح المصدر LongCat-Next هو نموذج متعدد الأنماط قائم على معمارية MoE، والذي يدمج خمس قدرات تشمل معالجة النصوص والفهم البصري وتوليد الصور والكلام. يحقق تصميمه الأساسي DiNA معالجة المهام الموحدة من خلال tokens منفصلة، وتستخدم الجانب البصري dNaViT الذي يجعل أداء توليد الصور متفوقة. بمقارنته مع النماذج المماثلة، يتقدم LongCat-Next في جميع المقاييس المرجعية، مما يعكس مزاياه في مجال الفهم والتوليد متعدد الأنماط.
المزيد
06:36

تقرير Cursor التقني حول Composer2: بيئة التعلم المعزز تحاكي سيناريوهات المستخدم الحقيقي بالكامل، تحسن النموذج الأساسي بنسبة 70%

نشرت Cursor تقرير تقنية Composer 2، والذي يقدم الحل التدريبي الكامل لبنية Kimi K2.5 MoE الخاصة بها، بما في ذلك التدريب ثنائي المراحل والمعيار المطور ذاتياً CursorBench. بعد التدريب، أظهرت Composer 2 تحسناً ملحوظاً في الأداء وتفوقت على نماذج الحدود الأخرى من حيث تكاليف الاستدلال.
المزيد
06:27

Cursor تُطلق تقرير تقنية Composer 2، تحسن درجات النموذج الأساسي بنسبة 70%

أصدرت Cursor في 25 مارس تقرير تكنولوجيا Composer 2، والذي كشف عن خطة التدريب لنموذج Kimi K2.5، حيث استخدمت معمارية MoE بإجمالي معاملات يصل إلى 1.04 تريليون. تم تقسيم التدريب إلى مرحلتين، باستخدام محاكاة السيناريوهات الحقيقية للتعلم المعزز، وحققت في النهاية درجة 61.3 على معيار CursorBench، بتحسن نسبته 70%، كما أن تكاليف الاستدلال أقل من واجهات برمجة التطبيقات الأخرى للنماذج الكبيرة.
المزيد
02:27

Meituan مفتوح المصدر نموذج إثبات النظرية بمعاملات 560B، معدل النجاح 97.1% في 72 خطوة استدلال يحطم SOTA مفتوح المصدر

فريق Meituan LongCat قام بفتح مصادر LongCat-Flash-Prover في 21 مارس، وهو نموذج MoE بـ 560 مليار معامل، مركز على إثبات النظريات الرسمية في Lean4. ينقسم النموذج إلى ثلاث قدرات: الإضفاء الرسمي التلقائي، وإنشاء الرسومات التخطيطية، وإنشاء البراهين الكاملة، ويجمع بين أدوات الاستدلال ومترجم Lean4 للتحقق في الوقت الفعلي. يستخدم التدريب إطار Hybrid-Experts Iteration Framework وخوارزمية HisPO لمنع الغش في المكافآت. تظهر الاختبارات المعيارية أن النموذج حقق أرقاماً قياسية جديدة لنماذج الأوزان مفتوحة المصدر في الإضفاء الرسمي التلقائي وإثبات النظريات.
المزيد
06:55

أطلقت Mistral AI نموذج Leanstral: أول وكيل أكواد مفتوح المصدر في Lean 4، يمكنه إخراج الإثباتات الرسمية تلقائياً

أطلقت Mistral AI وكيل الكود مفتوح المصدر Leanstral، مصمم خصيصاً للتحقق الرسمي من Lean 4، وقادر على توليد الكود والإثباتات التي يمكن التحقق منها تلقائياً. يستخدم النموذج بنية MoE�疏 (Mixture of Experts)، ويتفوق على النماذج الرائدة الأخرى، ويوفر التنزيل المجاني واستدعاءات واجهة برمجية.
المزيد