سبد خرید
0

هیچ محصولی در سبد خرید نیست.

حساب کاربری

یا

حداقل 8 کاراکتر

ابرکامپیوتر هوش مصنوعی
NVIDIA HGX

برترین پلتفرم محاسباتی هوش مصنوعی در جهان

پلتفرم هوش مصنوعی ابری NVIDIA HGX

طراحی‌شده برای هوش مصنوعی و رایانش با کارایی بالا (HPC)

هوش مصنوعی، شبیه‌سازی‌های پیچیده و تجزیه و تحلیل حجم عظیمی از داده‌ها، چالش‌هایی هستند که نیازمند چندین پردازنده گرافیکی (GPU) با قدرت پردازشی بالا و اتصالات پرسرعت بین پردازنده‌ها هستند. ابرکامپیوتر هوش مصنوعی NVIDIA HGX با گرد هم آوردن قدرت کامل پردازنده‌های گرافیکی NVIDIA، فناوری NVLink، شبکه اختصاصی انویدیا و مجموعه‌ای کامل از نرم‌افزارهای بهینه‌سازی‌شده برای هوش مصنوعی و رایانش با کارایی بالا (HPC)، به شما کمک می‌کند تا به بالاترین کارایی در اجرای برنامه‌ها دست پیدا کنید و در سریع‌ترین زمان ممکن به نتایج و درک عمیق مورد نظر خود برسید.

پلتفرم شتاب‌دهنده بی‌نظیر برای رایانش پیشرفته

HGX B200 و HGX B100 با ترکیب پردازنده‌های گرافیکی قدرتمند NVIDIA Blackwell Tensor Core و ارتباطات پرسرعت، مراکز داده را به دنیای جدیدی از هوش مصنوعی تولیدی و رایانش شتاب‌داده‌شده هدایت می‌کنند. این پلتفرم‌ها تا ۱۵ برابر عملکرد استنتاج بیشتری نسبت به نسل قبلی ارائه می‌دهند و برای پردازش‌های سنگین هوش مصنوعی تولیدی، تحلیل داده‌ها و رایانش با کارایی بالا (HPC) ایده‌آل هستند.

سیستم‌های مبتنی بر Blackwell برای پاسخگویی به نیازهای پیشرفته‌ترین بارهای کاری طراحی شده‌اند و با بهره‌گیری از فناوری‌های پیشرفته NVIDIA Quantum-2 InfiniBand و Spectrum™-X Ethernet، ارتباطاتی با سرعت تا ۴۰۰ گیگابیت بر ثانیه (Gb/s) ارائه می‌کنند. این پلتفرم همچنین از واحدهای پردازش داده (DPU) NVIDIA® BlueField®-3 استفاده می‌کند تا شبکه‌سازی ابری، ذخیره‌سازی ترکیبی، مدل امنیتی عدم اعتماد و انعطاف‌پذیری پردازش GPU را در ابرهای هوش مصنوعی بزرگ ممکن سازد.

پلتفرم هوش مصنوعی ابری NVIDIA HGX

یادگیری عمیق: کارایی و انعطاف‌پذیری

عملکرد پیش‌بینی‌شده ممکن است تغییر کند. زمان تأخیر توکن به توکن (TTL) برابر با ۵۰ میلی‌ثانیه (ms) در زمان واقعی، زمان تأخیر اولین توکن (FTL) برابر با ۵ ثانیه، طول دنباله ورودی ۳۲,۷۶۸، طول دنباله خروجی ۱,۰۲۸ است. مقایسه عملکرد هر پردازنده گرافیکی در حالت خنک‌کننده با هوا برای ۸ پردازنده گرافیکی NVIDIA HGX™ H100 هشت‌گانه در مقابل ۱ پردازنده گرافیکی HGX B200 هشت‌گانه.

پردازش هم‌زمان برای نسل جدید مدل‌های زبانی بزرگ

HGX B200 با استفاده از فناوری جدید Blackwell Tensor Core و نوآوری‌های TensorRT-LLM و Nemo Framework، پردازش مدل‌های زبانی بزرگ (LLM) و Mixture-of-Experts (MoE) را تا ۱۵ برابر سریع‌تر از نسل قبلی NVIDIA Hopper™ انجام می‌دهد.
این پیشرفت چشمگیر به شما امکان می‌دهد مدل‌های زبانی پیچیده‌تر را با سرعت بیشتر اجرا کنید و به نتایج سریع‌تر و دقیق‌تر دست پیدا کنید.

شتاب‌دهی HGX با استفاده از شبکه‌سازی NVIDIA

مرکز داده، واحد جدید محاسبات است و شبکه‌سازی نقشی اساسی در ارتقای عملکرد برنامه‌ها در آن ایفا می‌کند. HGX در کنار NVIDIA Quantum InfiniBand، عملکرد و کارایی بی‌نظیری ارائه می‌دهد که به استفاده کامل از منابع محاسباتی منجر می‌شود.

برای مراکز داده ابری هوش مصنوعی که از اترنت استفاده می‌کنند، HGX با پلتفرم شبکه‌سازی NVIDIA Spectrum-X بهترین عملکرد را ارائه می‌دهد. این پلتفرم بالاترین سطح عملکرد هوش مصنوعی را بر روی اترنت به ارمغان می‌آورد. Spectrum-X با ترکیب سوئیچ‌های NVIDIA Spectrum™-X و واحدهای پردازش داده BlueField-3، نتایج ثابتی را برای هزاران کار همزمان هوش مصنوعی در هر مقیاسی ارائه می‌دهد. این امر با استفاده بهینه از منابع، جداسازی عملکرد و ارائه قابلیت‌های پیشرفته چندمستاجری و امنیت بدون اعتماد در فضای ابری حاصل می‌شود. به عنوان نمونه‌ای از این فناوری، NVIDIA ابرکامپیوتر Israel-1 را طراحی کرده است؛ این ابرکامپیوتر هوش مصنوعی تولیدی با استفاده از سرورهای Dell PowerEdge XE9680 بر پایه پلتفرم هشت‌گانه GPU NVIDIA HGX، واحدهای پردازش داده BlueField-3 و سوئیچ‌های Spectrum-X ساخته شده است.

مشخصات NVIDIA HGX

NVIDIA HGX در بردهای تکی با چهار یا هشت GPU مدل H200 یا H100، یا هشت GPU مدل Blackwell در دسترس است. این ترکیب‌های قدرتمند از سخت‌افزار و نرم‌افزار، پایه و اساس عملکرد بی‌نظیر ابررایانه‌های هوش مصنوعی را فراهم می‌کنند.

Minimal Tabs
  1. Blackwell
  2. Hopper
HGX B200 HGX B100
HGX B200 8-GPU HGX B100 8-GPU GPUs
8x NVIDIA B200 SXM 8x NVIDIA B100 SXM Form factor
144 PFLOPS 112 PFLOPS FP4 Tensor Core
72 PFLOPS 56 PFLOPS FP8/FP6 Tensor Core
72 POPS 56 POPS INT8 Tensor Core
36 PFLOPS 28 PFLOPS FP16/BF16 Tensor Core
18 PFLOPS 14 PFLOPS TF32 Tensor Core
640 TFLOPS 480 TFLOPS FP32
320 TFLOPS 240 TFLOPS FP64
320 TFLOPS 240 TFLOPS FP64 Tensor Core
Up to 1.5TB Up to 1.5TB Memory
Fifth generation Fifth generation NVIDIA NVLink
Fourth generation Fourth generation NVIDIA NVSwitch™
1.8TB/s 1.8TB/s NVSwitch GPU-to-GPU bandwidth
14.4TB/s 14.4TB/s Total aggregate bandwidth
HGX H200
4-GPU 8-GPU
HGX H200 4-GPU HGX H200 8-GPU GPUs
4x NVIDIA H200 SXM 8x NVIDIA H200 SXM Form factor
16 PFLOPS 32 PFLOPS FP8/FP6 Tensor Core
16 POPS 32 POPS INT8 Tensor Core
8 PFLOPS 16 PFLOPS FP16/BFLOAT16 Tensor Core
4 PFLOPS 8 PFLOPS TF32 Tensor Core
270 TFLOPS 540 TFLOPS FP32
140 TFLOPS 270 TFLOPS FP64
270 TFLOPS 540 TFLOPS FP64 Tensor Core
Up to 564GB Up to 1.1TB Memory
Fourth generation Fourth generation NVLink
N/A Third generation NVSwitch
N/A 900GB/s NVSwitch GPU-to-GPU bandwidth
3.6TB/s 7.2TB/s Total aggregate bandwidth
HGX H100
4-GPU 8-GPU
HGX H100 4-GPU HGX H100 8-GPU GPUs
4x NVIDIA H100 SXM 8x NVIDIA H100 SXM Form factor
268TF/4PF/8PF/16PF/16 POPS 535TF/8PF/16PF/32PF/32 POPS HPC and AI compute (FP64/TF32/FP16/FP8/INT8)*
16 PFLOPS 32 PFLOPS FP8/FP6 Tensor Core
16 POPS 32 POPS INT8 Tensor Core
8 PFLOPS 16 PFLOPS FP16/BFLOAT16 Tensor Core
4 PFLOPS 8 PFLOPS TF32 Tensor Core
270 TFLOPS 540 TFLOPS FP32
140 TFLOPS 270 TFLOPS FP64
270 TFLOPS 540 TFLOPS FP64 Tensor Core
Up to 320GB Up to 640GB Memory
Fourth generation Fourth generation NVLink
N/A Third generation NVSwitch
N/A 900GB/s NVSwitch GPU-to-GPU bandwidth
3.6TB/s 7.2TB/s Total aggregate bandwidth

برای دریافت مشاوره و خرید با ما در ارتباط باشید

مقایسه محصولات

0 محصول

مقایسه محصول
مقایسه محصول
مقایسه محصول
مقایسه محصول