Intel Xeon 6 wykorzystywany jako procesory hosta w systemach NVIDIA DGX Rubin NVL8
Procesor Intel Xeon jest używany jako CPU hosta, co podkreśla jego rolę w orkiestracji, skalowaniu i zabezpieczaniu nowoczesnej infrastruktury AI.
Co nowego: Podczas NVIDIA GTC 2026 firma Intel ogłosiła, że Intel Xeon 6 jest wykorzystywany jako procesor w systemach NVIDIA DGX Rubin NVL8. Podkreśla to rolę Xeon w zapewnianiu ciągłości architektonicznej i skalowalności dla systemów AI przyspieszanych przez GPU, gdy obciążenia przesuwają się w kierunku masowego wnioskowania w czasie rzeczywistym.
„W miarę jak AI zmierza w stronę wnioskowania w czasie rzeczywistym, dostępnego wszędzie, procesor hosta staje się krytyczny dla działania systemu” — powiedział Jeff McVeigh, wiceprezes korporacyjny i dyrektor generalny ds. strategicznych programów centrów danych w Intel. „Intel Xeon 6 zapewnia wydajność, efektywność i kompatybilność z ekosystemem x86, aby skalować obciążenia związane z wnioskowaniem.”
Dlaczego to ważne: Wraz z rosnącą adopcją AI, wydajność wnioskowania coraz bardziej zależy nie tylko od GPU, ale również od efektywności systemu sterowanej przez CPU. Procesor hosta odgrywa kluczową rolę w zarządzaniu pamięcią, orkiestracji zadań, dystrybucji obciążeń oraz zapewnia bezpieczeństwo, niezawodność i ciągłość operacyjną całej infrastruktury AI.
Intel Xeon 6 został wybrany jako CPU hosta dla systemów DGX Rubin NVL8 dzięki:
- Wysokim prędkościom pamięci i zrównoważonej wydajności dla różnych obciążeń
- Niższemu całkowitemu kosztowi posiadania (TCO) w długim okresie
- Dojrzałemu, sprawdzonemu w przedsiębiorstwach ekosystemowi oprogramowania x86
- Zaawansowanym możliwościom PCIe i I/O zapewniającym wysoką przepustowość i niskie opóźnienia
Dodatkowe korzyści obejmują:
- Wysoką efektywność energetyczną (wydajność na wat)
- Zoptymalizowane wsparcie dla całego stosu oprogramowania AI, w tym NVIDIA Dynamo do heterogenicznego wnioskowania
- Sprawdzoną niezawodność w środowiskach krytycznych
- Silną orkiestrację systemów przyspieszanych przez GPU
Ten wybór wzmacnia pozycję Xeon jako fundamentu nowoczesnej infrastruktury AI, umożliwiając skalowalne wdrożenia w centrach danych, chmurze i na brzegu sieci (edge). Wraz z szybkim rozwojem wnioskowania AI, kluczowe staje się kompleksowe przetwarzanie poufne (confidential computing), a Intel TDX zapewnia izolację sprzętową i mechanizmy atestacji w celu zabezpieczenia obciążeń AI.
Współpraca Intel i NVIDIA:
Systemy NVIDIA DGX Rubin NVL8 integrują Intel Xeon 6, bazując na fundamentach stworzonych przez Intel Xeon 6776P w obecnych platformach NVIDIA opartych na architekturze Blackwell, w tym systemach NVIDIA DGX B300.
Intel Xeon 6 został zaprojektowany tak, aby maksymalizować wydajność GPU, wykorzystując funkcje takie jak Priority Core Turbo oraz wysoką wydajność jednowątkową, co pozwala efektywnie obsługiwać orkiestrację, harmonogramowanie i transfer danych w złożonych obciążeniach wnioskowania.
Kluczowe cechy Intel Xeon 6:
- Do 8 TB pamięci systemowej dla dużych modeli i pamięci podręcznej KV
- Do 3× większa przepustowość pamięci (między generacjami) dzięki technologii MRDIMM
- Wiodąca w branży liczba linii PCIe 5.0 dla akceleratorów AI
- Poufne przetwarzanie na ścieżkach danych CPU–GPU z wykorzystaniem Encrypted Bounce Buffer
- Sprzętowa izolacja chroniąca dane i modele AI podczas ich użycia