عصر التسريع التالي لوحدة المعالجة الرسومية: كيف يعيد NVIDIA's Vera Rubin تعريف جدولة وحدة المعالجة الرسومية المعتمدة على العتاد

في مؤتمر CES 2026، قدم جينسن هوانغ كلمة رئيسية تحويلية تؤكد على رؤية NVIDIA التي تعتمد على المراهنة على الشركة: الانتقال من عصر يركز بشكل خالص على تدريب الذكاء الاصطناعي إلى عصر يهيمن عليه الاستنتاج الفعال على نطاق واسع والذكاء المجسد. على مدى 90 دقيقة، كشف الرئيس التنفيذي لـ NVIDIA عن ثمانية إعلانات رئيسية، كل منها يعزز استراتيجية واحدة—بناء أنظمة متكاملة بشكل وثيق حيث يصبح جدولة وحدات معالجة الرسومات المعززة بالأجهزة والحوسبة الشبكية لا ينفصلان. كانت الرسالة واضحة: المستقبل لا ينتمي إلى المسرعات المعزولة، بل إلى الأنظمة المصممة لتحقيق إنتاجية عالية بتكلفة فعالة.

منصة فيرا روبين: نهج من ست شرائح لتصميم أنظمة معجل

تمثل منصة فيرا روبين إعادة تفكير أساسية في هندسة مراكز البيانات. بدلاً من تثبيت المسرعات على بنية تحتية عامة، شاركت NVIDIA في تصميم ست شرائح مكملة—Vera CPU، Rubin GPU، NVLink 6 Switch، ConnectX-9 SuperNIC، BlueField-4 DPU، وSpectrum-X CPO—كل منها محسّن للعمل كبيئة متكاملة.

يُبنى معالج Vera CPU على أنوية Olympus المخصصة، ويتولى نقل البيانات ومعالجة الوكيل بسرعة 1.8TB/ث NVLink إلى المعالج، مما يدير بشكل فعال التنسيق الذي تتطلبه جدولة GPU. يُقدم Rubin GPU محرك Transformer وقدرة استنتاج NVFP4 تصل إلى 50 PFLOPS—أي 5 أضعاف أداء Blackwell—مع دعم لذاكرة HBM4 بسرعة 22TB/ث عرض النطاق الترددي، أي 2.8 مرة من الجيل السابق. لا تهم هذه المواصفات بمعزل، بل لأنها تحل مشكلة حاسمة: مع نمو النماذج وتكاثر رموز الاستنتاج، تتعرض الطرق التقليدية لجدولة GPU عن طريق عنق الزجاجة في عرض النطاق الترددي للذاكرة وتكاليف نقل البيانات.

من خلال دمج جميع المكونات في نظام رف واحد، يوفر Vera Rubin NVL72 أداء استنتاج يبلغ 3.6 EFLOPS مع 2 تريليون ترانزستور. والأهم من ذلك، أن هندسة النظام تتيح جدولة GPU المعززة بالأجهزة على نطاق غير مسبوق. يحقق NVLink 6 Switch عرض نطاق ترددي كامل بين الوحدات لكل GPU يبلغ 3.6TB/ث (2x من الجيل السابق)، مع حوسبة داخل الشبكة بسرعة 14.4 TFLOPS FP8. هذا ليس مجرد زيادة في عرض النطاق—بل هو عرض نطاق مصمم للقضاء على عنق الزجاجة في جدولة الأحمال الموزعة للاستنتاج.

يستخدم النظام تبريد سائل بنسبة 100% ويتميز بصينية حوسبة بدون مروحة قابلة للتعديل تقلل وقت التجميع من ساعتين إلى خمس دقائق. تضمن الصيانة بدون توقف من خلال صينية NVLink Switch ومحرك RAS من الجيل الثاني أن تجمعات الاستنتاج تحقق مناعتها التشغيلية التي تتطلبها مراكز البيانات. أكثر من 80 شريك MGX جاهزون بالفعل لنشر Vera Rubin.

ثلاثة ابتكارات تستهدف حدود كفاءة الاستنتاج

بالإضافة إلى الأساس المادي، أطلقت NVIDIA ثلاثة منتجات مصممة خصيصًا لمعالجة عنق الزجاجة في الاستنتاج: Spectrum-X Ethernet CPO، ومنصة تخزين ذاكرة سياق الاستنتاج، وDGX SuperPOD المبني على Vera Rubin.

Spectrum-X Ethernet Co-Packaged Optics يستخدم تصميمًا مكونًا من شريحتين بتقنية SerDes بسرعة 200Gbps، ويوفر 102.4Tb/ث لكل ASIC. مقارنة بالشبكات التقليدية، يحقق بنية CPO كفاءة طاقة متفوقة بمقدار 5 أضعاف، وموثوقية أفضل بمقدار 10 أضعاف، وتحسين مدة تشغيل التطبيقات بمقدار 5 أضعاف. يترجم ذلك مباشرة إلى معالجة المزيد من رموز الاستنتاج يوميًا مع تقليل التكلفة الإجمالية لمركز البيانات—وهو ميزة تنافسية حاسمة في سباق تحويل الاستنتاج إلى سلعة.

منصة تخزين ذاكرة سياق الاستنتاج تعيد تعريف كيفية تعامل الأنظمة مع تخزين السياق لأعباء عمل الذكاء الاصطناعي ذات التسلسلات الطويلة. مع تعامل أنظمة AI الوكيلة مع محادثات متعددة الأدوار، وخطوط أنابيب RAG، والتفكير المعقد متعدد الخطوات، تمتد نوافذ السياق الآن إلى ملايين الرموز. بدلاً من إعادة حساب ذاكرات المفاتيح والقيم عند كل خطوة استنتاج—مما يهدر حوسبة GPU ويضيف زمن استجابة—تعامل المنصة السياق ككيان من الدرجة الأولى، وتخزنه وتعيد استخدامه عبر طبقة تخزين معززة بواسطة BlueField-4 ومتصلة بـ Spectrum-X. من خلال فصل تخزين السياق عن ذاكرة GPU مع الحفاظ على الترابط الوثيق عبر NVLink، توفر المنصة أداء استنتاج 5 أضعاف وكفاءة طاقة 5 أضعاف للأعباء ذات السياق الثقيل. يمثل هذا تحولًا أساسيًا في الهندسة المعمارية: لقد انتقل عنق الزجاجة في الاستنتاج من الحوسبة الخام إلى إدارة السياق.

DGX SuperPOD مع Vera Rubin يعمل كنموذج لمصانع الذكاء الاصطناعي الجاهزة. من خلال دمج ثمانية أنظمة Vera Rubin NVL72 مع توسعة رأسية عبر NVLink 6 وتوسعة أفقية عبر Spectrum-X Ethernet، يُظهر SuperPOD كيف يؤدي التعاون في تصميم الشرائح إلى تقليل التكاليف على مستوى النظام. مقارنة بالجيل السابق Blackwell، يتطلب تدريب نماذج MoE الكبيرة فقط ربع عدد وحدات معالجة الرسومات، وتنخفض تكاليف الاستنتاج لكل رمز إلى عُشرها. يُدار بواسطة برمجيات NVIDIA Mission Control، يعمل SuperPOD كمحرك استنتاج موحد حيث تتم جدولة وحدات معالجة الرسومات، وتنظيم الشبكة، وتنسيق التخزين بشكل شفاف.

المضخم مفتوح المصدر: من النماذج إلى الوكلاء المدمجين

يعكس التوسع العدواني لشركة NVIDIA في مساهماتها مفتوحة المصدر—650 نموذجًا و250 مجموعة بيانات أُطلقت في 2025 وحدها—استراتيجية متطورة: إشباع المطورين بأدوات قوية ومتاحة مجانًا مع جعل الأجهزة الأساسية أكثر اعتمادًا بشكل متزايد.

لقد دمجت الشركة النماذج والأدوات المفتوحة في “Blueprints”، وهو إطار SaaS يتيح أنظمة متعددة النماذج ومتعددة السحابة من الوكيل، حيث يتم توجيه الاستفسارات تلقائيًا إما إلى نماذج خاصة محلية أو إلى نماذج رائدة سحابية بناءً على متطلبات المهمة، واستدعاء واجهات برمجة التطبيقات الخارجية للأدوات، ودمج المدخلات متعددة الوسائط (نص، صوت، صور، بيانات استشعار). من خلال تضمين هذا الهيكل في سير عمل المطورين، تضمن NVIDIA أن تعتمد المؤسسات التي تعتمد على النماذج المفتوحة في النهاية على بنية استنتاج Vera Rubin لنشر الإنتاج.

تتضمن عائلة Nemotron الموسعة الآن نماذج RAG الوكيل، والمتغيرات المركزة على السلامة، ونماذج الصوت—كلها تعالج عنق الزجاجة في مكدس الذكاء الاصطناعي الوكيل الناشئ. يمكن للمطورين ضبط هذه النماذج، وتوليد بيانات اصطناعية عبر Cosmos، وبناء تطبيقات كانت ستبدو مستحيلة قبل عامين.

الذكاء الاصطناعي المادي: حيث يلتقي القيادة الذاتية بالتفكير في العالم الحقيقي

تضع NVIDIA الذكاء الاصطناعي المادي—الذكاء الذي يفهم العالم الحقيقي، ويُعقلن حول عدم اليقين، وينفذ إجراءات معقدة—كحدود قادمة بمليارات الدولارات. وتظهر السيارات الذاتية القيادة كميدان إثبات رئيسي.

Alpha-Mayo، مجموعة نماذج القيادة الذاتية من المستوى 4 مفتوحة المصدر من NVIDIA، تجسد هذه الرؤية. مع 10 مليارات معلمة، تُمكن Alpha-Mayo من اتخاذ القرارات بناءً على التفكير، وتقسيم سيناريوهات القيادة المعقدة إلى خطوات، واختيار الإجراء الأكثر أمانًا. بدلاً من أنظمة القواعد التفاعلية، يفهم النموذج بقاء الأجسام، ويتوقع سلوك المركبات، ويتعامل مع الحالات الطارئة غير المرئية سابقًا—مثل عطل إشارة المرور عند تقاطع مزدحم.

حققت سيارة مرسيدس-بنز CLA، التي تم إنتاجها الآن مع دمج Alpha-Mayo، أعلى تصنيف سلامة من NCAP. يدعم منصة NVIDIA DRIVE، التي تعمل على أجهزة إنتاجية، القيادة بدون يد على الطريق السريع والقيادة الحضرية من النهاية إلى النهاية—وهي قدرات تُظهر جاهزية الذكاء الاصطناعي المادي للنشر على نطاق واسع. تُمكن أدوات التقييم مفتوحة المصدر مثل Alpha-Sim وتوليد البيانات الاصطناعية عبر Cosmos المطورين حول العالم من تسريع تطوير المركبات الذاتية.

وبعد السيارات، أعلنت NVIDIA عن شراكات مع Boston Dynamics، وFranka Robotics، وLG Electronics، وغيرهم، بناءً على منصات NVIDIA Isaac وGR00T. وتدمج شراكة مع Siemens تقنيات NVIDIA في أدوات EDA وCAE والنمذجة الرقمية، مما يدمج الذكاء الاصطناعي المادي عبر التصميم والمحاكاة والتصنيع والعمليات.

العمق التنافسي يتعزز: الهندسة الأنظمة كمزية تنافسية

مع تحول سوق بنية الذكاء الاصطناعي من نموذج يركز على التدريب إلى اقتصاد يركز على الاستنتاج، تطورت المنافسة على المنصات من مقاييس محور واحد (FLOPS GPU) إلى هندسة أنظمة تغطي بشكل شامل الشرائح، والأرفف، والشبكات، وتنظيم البرمجيات.

تنفذ استراتيجية NVIDIA على جبهتين في آن واحد. من ناحية، تساهم بشكل مكثف في المصادر المفتوحة من خلال تقديم النماذج والأدوات ومجموعات البيانات، مما ي democratizes تطوير الذكاء الاصطناعي ويوسع السوق الإجمالي الممكن للاستنتاج. ومن ناحية أخرى، فإن النظام البيئي المتكامل بشكل وثيق لـ Vera Rubin—بما يشمل الشرائح المصممة معًا، وعرض النطاق الترددي لـ NVLink، وشبكة Spectrum-X، وطبقات تخزين السياق، وبرمجيات Mission Control—يصبح أكثر صعوبة في النسخ.

الديناميكية ذات الحلقة المغلقة قوية: من خلال توسيع النظام البيئي مفتوح المصدر، تدفع NVIDIA لاعتماد أوسع للذكاء الاصطناعي واستهلاك الرموز؛ ومن خلال تقديم بنية استنتاج فعالة من حيث التكلفة، تلتقط الأحمال التي تتزايد؛ ومن خلال الابتكار المستمر في هندسة الأجهزة وقدرات جدولة وحدات معالجة الرسومات، تضمن NVIDIA أن المنصات البديلة تكافح لمضاهاة الأداء لكل واط وتكلفة لكل رمز. يخلق هذا ميزة تعزز نفسها تتجاوز أي دورة منتج واحدة.

إعلان Vera Rubin لا يمثل مجرد الجيل التالي من أجهزة الاستنتاج، بل هو تأكيد على أن رهان NVIDIA على الأنظمة المدمجة—حيث يلتقي التسريع المادي، والتنظيم الشبكي، وتحسين البرمجيات—أصبح عقيدة صناعية. من مقدمي الخدمات السحابية الضخمة الذين ينشرون SuperPODs إلى الشركات التي تبني وكلاء ذكاء اصطناعي خاص على مجموعات DGX، يتجه مشهد البنية التحتية نحو توحيد حول رؤية NVIDIA.

ERA2.18%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$3.44Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.43Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.43Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.43Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.42Kعدد الحائزين:1
    0.00%
  • تثبيت