Intel Xeon 6 wykorzystywany jako procesory hosta w systemach NVIDIA DGX Rubin NVL8

Procesor Intel Xeon jest używany jako CPU hosta, co podkreśla jego rolę w orkiestracji, skalowaniu i zabezpieczaniu nowoczesnej infrastruktury AI.

Co nowego: Podczas NVIDIA GTC 2026 firma Intel ogłosiła, że Intel Xeon 6 jest wykorzystywany jako procesor w systemach NVIDIA DGX Rubin NVL8. Podkreśla to rolę Xeon w zapewnianiu ciągłości architektonicznej i skalowalności dla systemów AI przyspieszanych przez GPU, gdy obciążenia przesuwają się w kierunku masowego wnioskowania w czasie rzeczywistym.

„W miarę jak AI zmierza w stronę wnioskowania w czasie rzeczywistym, dostępnego wszędzie, procesor hosta staje się krytyczny dla działania systemu” — powiedział Jeff McVeigh, wiceprezes korporacyjny i dyrektor generalny ds. strategicznych programów centrów danych w Intel. „Intel Xeon 6 zapewnia wydajność, efektywność i kompatybilność z ekosystemem x86, aby skalować obciążenia związane z wnioskowaniem.”

Dlaczego to ważne: Wraz z rosnącą adopcją AI, wydajność wnioskowania coraz bardziej zależy nie tylko od GPU, ale również od efektywności systemu sterowanej przez CPU. Procesor hosta odgrywa kluczową rolę w zarządzaniu pamięcią, orkiestracji zadań, dystrybucji obciążeń oraz zapewnia bezpieczeństwo, niezawodność i ciągłość operacyjną całej infrastruktury AI.

Intel Xeon 6 został wybrany jako CPU hosta dla systemów DGX Rubin NVL8 dzięki:

  • Wysokim prędkościom pamięci i zrównoważonej wydajności dla różnych obciążeń
  • Niższemu całkowitemu kosztowi posiadania (TCO) w długim okresie
  • Dojrzałemu, sprawdzonemu w przedsiębiorstwach ekosystemowi oprogramowania x86
  • Zaawansowanym możliwościom PCIe i I/O zapewniającym wysoką przepustowość i niskie opóźnienia

Dodatkowe korzyści obejmują:

  • Wysoką efektywność energetyczną (wydajność na wat)
  • Zoptymalizowane wsparcie dla całego stosu oprogramowania AI, w tym NVIDIA Dynamo do heterogenicznego wnioskowania
  • Sprawdzoną niezawodność w środowiskach krytycznych
  • Silną orkiestrację systemów przyspieszanych przez GPU

Ten wybór wzmacnia pozycję Xeon jako fundamentu nowoczesnej infrastruktury AI, umożliwiając skalowalne wdrożenia w centrach danych, chmurze i na brzegu sieci (edge). Wraz z szybkim rozwojem wnioskowania AI, kluczowe staje się kompleksowe przetwarzanie poufne (confidential computing), a Intel TDX zapewnia izolację sprzętową i mechanizmy atestacji w celu zabezpieczenia obciążeń AI.

Współpraca Intel i NVIDIA:

Systemy NVIDIA DGX Rubin NVL8 integrują Intel Xeon 6, bazując na fundamentach stworzonych przez Intel Xeon 6776P w obecnych platformach NVIDIA opartych na architekturze Blackwell, w tym systemach NVIDIA DGX B300.

Intel Xeon 6 został zaprojektowany tak, aby maksymalizować wydajność GPU, wykorzystując funkcje takie jak Priority Core Turbo oraz wysoką wydajność jednowątkową, co pozwala efektywnie obsługiwać orkiestrację, harmonogramowanie i transfer danych w złożonych obciążeniach wnioskowania.

Kluczowe cechy Intel Xeon 6:

  • Do 8 TB pamięci systemowej dla dużych modeli i pamięci podręcznej KV
  • Do 3× większa przepustowość pamięci (między generacjami) dzięki technologii MRDIMM
  • Wiodąca w branży liczba linii PCIe 5.0 dla akceleratorów AI
  • Poufne przetwarzanie na ścieżkach danych CPU–GPU z wykorzystaniem Encrypted Bounce Buffer
  • Sprzętowa izolacja chroniąca dane i modele AI podczas ich użycia

Źródło