پیشرو در انقلاب هوش مصنوعی و محاسبات کوانتومی
در سال ۲۰۲۵، هوش مصنوعی دیگر یک انتخاب نیست، بلکه قلب تپنده هر کسبوکار پیشرو است. NVIDIA صرفاً یک سازنده تراشه نیست؛ معمار زیرساختیست که غیرممکنها را ممکن میکند. از آموزش بزرگترین مدلهای زبانی جهان (LLMs) تا شبیهسازیهای پیچیده صنعتی، انویدیا پلتفرمی را فراهم میکند که در آن سرعت، دقت و هوشمندی با هم ادغام میشوند تا آینده را امروز بسازید.
ارتباطی که پایدار است...
پلتفرمهای محاسباتی و سختافزار (Computing Platforms & Hardware)
این دسته شامل تمام سیستمها و پردازندههایی است که قدرت محاسباتی را فراهم میکنند.
ابرکامپیوتر هوش مصنوعی Dgx
ابرکامپیوتر هوش مصنوعی Hgx
راهکارهای سیستمی و رک
پردازندههای مرکزی
بصریسازی حرفهای
راهکار آمادهبهکار انویدیا که تمام پیچیدگیهای نرمافزاری و سختافزاری را حذف کرده و یک دیتاسنتر AI کامل را در اختیار شما قرار میدهد.
معماری مرجع برای ساخت زیرساخت AI.

NVIDIA DGX Vera Rubin NVL72 Systems
این سیستم تمامعیار در مقیاس رک (Rack-scale) با بهرهگیری از خنککننده مایع، استانداردی نوین برای هوش مصنوعی مبتنی بر عامل (Agentic AI) تعریف میکند. Vera Rubin NVL72 ضمن شتابدهی به مدلهای استدلالی پیچیده، با بالاترین بهرهوری انرژی، هزینه به ازای هر توکن را برای پردازشهای سنگین بهینهسازی میکند.

NVIDIA DGX Rubin NVL8 Systems
یک پلتفرم هوش مصنوعی فراگیر و آمادهبهکار (Turnkey) که با تکیه بر قدرت پردازشی معماری NVIDIA Rubin، مسیری هموار برای سازمانها میسازد. این سیستم برای پیادهسازی سریع، آموزش و استنتاج مدلهای پیشرفته هوش مصنوعی مبتنی بر عامل در محیطهای سازمانی و تجاری مهندسی شده است.

NVIDIA DGX GB300 Systems
پیشرفتهترین سیستم هوش مصنوعی انویدیا که به فناوری خنککننده مایع و قدرت بیرقیب سوپرچیپهای NVIDIA Grace Blackwell Ultra مجهز شده است. DGX GB300 نماد نهایت کارایی در دیتاسنترهای مدرن است که تراکم پردازشی و سرعت انتقال داده بینظیری را برای حل چالشهای محاسباتی آینده ارائه میدهد.

NVIDIA DGX B300 Systems
این سیستم با بهرهگیری از معماری قدرتمند NVIDIA Blackwell Ultra، پاسخی قاطع به نیازهای پردازشی هوش مصنوعی مولد در مقیاس عظیم است. DGX B300 بهطور اختصاصی برای اجرای سریع بارهای کاری مبتنی بر ترانسفورمر و تسریع چرخههای آموزش تا استنتاج در پروژههای بزرگ طراحی شده است.

NVIDIA DGX GB200 Systems
یک راهکار پیشرو (Leadership-class) و مجهز به خنککننده مایع که قلب تپنده آن سوپرچیپهای NVIDIA Grace Blackwell است. این سیستم زیرساختی حیاتی برای آموزش سنگینترین مدلهای بنیادی (Foundation Models) و اجرای استنتاج در مقیاس وسیع را در اختیار پیشگامان تکنولوژی قرار میدهد.

NVIDIA DGX B200 Systems
یک پلتفرم هوش مصنوعی کاملاً یکپارچه مبتنی بر معماری Blackwell که تمامی مراحل چرخه عمر AI را با قدرتی مثالزدنی پوشش میدهد. از آموزش و تنظیم دقیق (Fine-tuning) تا استنتاج نهایی، DGX B200 انعطافپذیری و توان لازم برای مدیریت تمام بارهای کاری دیتاسنتر را فراهم میکند.

NVIDIA DGX H200 Systems
ابررایانهای قدرتمند که بهطور خاص برای پردازش هوش مصنوعی مولد در مقیاس کلان و بارهای کاری مبتنی بر ترانسفورمر بهینهسازی شده است. DGX H200 با حافظه و پهنای باند ارتقایافته، گلوگاههای حافظه را حذف کرده و سرعتی خیرهکننده در تحلیل دادههای حجیم ارائه میدهد.
معماری مرجع برای ساخت زیرساخت AI

NVIDIA DGX Rubin NVL8 Systems
پلتفرمی آمادهبهکار و فراگیر که با قدرت معماری NVIDIA Rubin، استانداردی جدید برای دیتاسنترهای سازمانی تعریف میکند. این سیستم راهکاری جامع برای توسعهدهندگان است تا مدلهای هوش مصنوعی مبتنی بر عامل (Agentic AI) را با سرعت و کارایی بالا آموزش داده و پیادهسازی کنند.

NVIDIA DGX B300 Systems
این سیستم با تکیه بر قدرت پردازشی NVIDIA Blackwell Ultra، پاسخی قدرتمند به نیازهای هوش مصنوعی مولد در مقیاس کلان است. طراحی آن بهگونهای است که سنگینترین بارهای کاری مبتنی بر ترانسفورمر را در فرآیندهای آموزش و استنتاج با سرعتی بیرقیب مدیریت میکند.

NVIDIA DGX B200 Systems
یک پلتفرم یکپارچه مبتنی بر معماری NVIDIA Blackwell که تمامی مراحل چرخه عمر هوش مصنوعی را پوشش میدهد. از آموزش مدلهای پیچیده و تنظیم دقیق (Fine-tuning) تا اجرای استنتاج، این سیستم زیرساختی منعطف و قدرتمند برای دیتاسنترهای مدرن فراهم میسازد.

NVIDIA DGX H200 Systems
ابررایانهای که برای عصر هوش مصنوعی مولد و پردازشهای عظیم مبتنی بر ترانسفورمر بهینهسازی شده است. DGX H200 با ارتقای ظرفیت حافظه و پهنای باند نسبت به نسل قبل، گلوگاههای عملکردی را حذف کرده و بستری ایدهآل برای حل پیچیدهترین مسائل محاسباتی ارائه میدهد.
پلتفرم ماژولار و منعطف انویدیا که به عنوان قلب تپنده ابرکامپیوترها، امکان پیادهسازی قدرتمندترین زیرساخت هوش مصنوعی را متناسب با معماری و سرورهای اختصاصی دیتاسنتر شما فراهم میکند.
استاندارد نهایی قدرت در عصر هوش مصنوعی مولد
پلتفرم HGX B300/B200 با ترکیب سریعترین اتصال NVLink جهان و چگالی محاسباتی بیرقیب، گلوگاههای عملکردی را بهکلی حذف میکند. این راهکار ماژولار، نه تنها سرعت آموزش مدلهای عظیم زبانی (LLM) را چندبرابر میکند، بلکه هزینه و انرژی مصرفی بهازای هر توکن را به شکل چشمگیری کاهش میدهد؛ زیرساختی منعطف برای کسانی که به چیزی جز بالاترین سطح عملکرد راضی نیستند.
| HGX B300 | HGX B200 | |
|---|---|---|
| Form Factor | 8x NVIDIA Blackwell Ultra SXM | 8x NVIDIA Blackwell SXM |
| FP4 Tensor Core1 | 144 PFLOPS | 108 PFLOPS | 144 PFLOPS | 72 PFLOPS |
| FP8/FP6 Tensor Core2 | 72 PFLOPS | 72 PFLOPS |
| INT8 Tensor Core2 | 3 POPS | 72 POPS |
| FP16/BF16 Tensor Core2 | 36 PFLOPS | 36 PFLOPS |
| TF32 Tensor Core2 | 18 PFLOPS | 18 PFLOPS |
| Total Memory | 2.1 TB | 1.4 TB |
| NVIDIA NVLink | Fifth generation | Fifth generation |
| NVIDIA NVLink Switch™ | NVLink 5 Switch | NVLink 5 Switch |
| Networking Bandwidth | 1.6 TB/s | 0.8 TB/s |
| Attention Performance3 | 2x | 1x |
1. Specification in Sparse | Dense
2. Specification in Sparse. Dense is ½ sparse spec shown.
3. vs. NVIDIA Blackwell.
سیستم رک-اسکیل برای عصر استنتاج در هوش مصنوعی
زیرساختی طراحیشده برای هوش مصنوعی متفکر؛ این سیستم با ارائه پهنای باند و حافظه بیسابقه، امکان پردازشهای زنجیرهای و حل مسائل پیچیده منطقی را با سرعتی خیرهکننده فراهم میکند.
سیستم رک-اسکیل برای استنتاج مقیاسپذیر LLM
راهکاری ایدهآل برای اجرای بلادرنگ مدلهای تریلیون پارامتری با ۲۵ برابر مصرف انرژی کمتر؛ با قدرتمندترین سیستم یکپارچه جهان که ۷۲ پردازنده گرافیکی را از طریق NVLink به یک Cloud GPU واحد تبدیل میکند.
سیستمهای با کارایی بالا برای شبیهسازی و رندر 3 بعدی.
زیرساخت مرجع برای عصر Digital Twins و متاورس صنعتی. سیستمهای OVX با تلفیق گرافیک پیشرفته و هوش مصنوعی، پلی میان جهان فیزیکی و مجازی میسازند تا سازمانها بتوانند پیچیدهترین شبیهسازیهای رباتیک، طراحیهای صنعتی و محیطهای سهبعدی در مقیاس عظیم را با دقت فیزیکی کامل و بهصورت بلادرنگ (Real-time) اجرا کنند.
ما زیرساختی برایتان فراهم میکنیم که بزرگترین شرکتهای جهان بر آن تکیه کردهاند.
قلب تپنده محاسبات شتابیافته؛ زیرساختی بیرقیب برای حل پیچیدهترین چالشهای علمی و تجاری جهان.
سریعترین و هوشمندترین شتابدهنده جهان برای بارهای کاری سنگین.
H200 با افزایش چشمگیر پهنای باند و ظرفیت حافظه نسبت به نسل قبل، عملکردی بینظیر در شبیهسازیهای علمی و هوش مصنوعی ارائه میکند. این پردازنده نه تنها سرعت پاسخگویی را چند برابر میکند، بلکه با کاهش ۵۰ درصدی هزینه مالکیت (TCO) و مصرف انرژی بهازای هر توکن تولید شده، اقتصادیترین انتخاب برای آیندهنگرهاست.
| H200 SXM¹ | H200 NVL¹ | |
|---|---|---|
| FP64 | 34 TFLOPS | 30 TFLOPS |
| FP64 Tensor Core | 67 TFLOPS | 60 TFLOPS |
| FP32 | 67 TFLOPS | 60 TFLOPS |
| TF32 Tensor Core² | 989 TFLOPS | 835 TFLOPS |
| BFLOAT16 Tensor Core² | 1,979 TFLOPS | 1,671 TFLOPS |
| FP16 Tensor Core² | 1,979 TFLOPS | 1,671 TFLOPS |
| FP8 Tensor Core² | 3,958 TFLOPS | 3,341 TFLOPS |
| INT8 Tensor Core² | 3,958 TFLOPS | 3,341 TFLOPS |
| GPU Memory | 141GB | 141GB |
| GPU Memory Bandwidth | 4.8TB/s | 4.8TB/s |
| Decoders | 7 NVDEC 7 JPEG |
7 NVDEC 7 JPEG |
| Confidential Computing | Supported | Supported |
پردازندههای Grace با عبور از محدودیتهای سنتی و ایجاد یکپارچگی بینظیر میان CPU و GPU، استانداردی نوین از سرعت انتقال داده و بهرهوری انرژی را برای محاسبات سنگین (HPC) و ابری رقم میزنند.

NVIDIA GB300 NVL72
سیستم GB300 NVL72 با بهرهگیری از ۴۰ ترابایت حافظه سریع و پلتفرم شبکه پیشرفته ConnectX-8، عملکرد استنتاج هوش مصنوعی را نسبت به نسل قبل تا ۳۵ برابر ارتقا میدهد. این سیستم با پشتیبانی از اینفینیبند Quantum-X800 و اترنت Spectrum-X، زیرساختی بینظیر برای دیتاسنترهای مدرن فراهم میکند.

NVIDIA Grace CPU Superchip
این سوپرچیپ با اتصال منسجم دو پردازنده Grace از طریق رابط پرسرعت NVLink-C2C، قدرت ۱۴۴ هسته Arm Neoverse V2 را در یک ماژول واحد متمرکز کرده است. بهرهمندی از حافظه LPDDR5X با پهنای باند ۱ ترابایت بر ثانیه، این پردازنده را به قلبی تپنده برای محاسبات سنگین تبدیل میکند.

NVIDIA Grace CPU C1
پردازنده Grace C1 استانداردی جدید برای سرورهای تکسوکت (Single-socket) است که توازن کاملی میان کارایی و پهنای باند برقرار میکند. این پلتفرم بدون فدا کردن و پایین آوردن سطح عملکرد، زیرساختی قدرتمند و بهینه را برای بارهای کاری متنوع دیتاسنتر و پردازشهای با عملکرد بالا ارائه میدهد.

NVIDIA GB200 NVL72
این سیستم با یکپارچهسازی ۳۶ پردازنده Grace و ۷۲ پردازنده گرافیکی Blackwell در مقیاس رک، مانند یک GPU عظیم واحد عمل میکند. GB200 NVL72 با افزایش ۳۰ برابری سرعت استنتاج مدلهای زبانی بزرگ، تحولی شگرف در پردازشهای سنگین HPC و هوش مصنوعی مولد ایجاد کرده است.

NVIDIA GB200 NVL4
این سیستم با ایجاد همگرایی میان محاسبات HPC و هوش مصنوعی، آینده این حوزه را رقم میزند. NVL4 با متصل کردن چهار پردازنده گرافیکی Blackwell به دو پردازنده مرکزی Grace از طریق رابط NVLink-C2C، عملکردی انقلابی و یکپارچه را برای بارهای کاری متراکم و پیچیده ارائه میدهد.

NVIDIA GH200 Grace Hopper Superchip
سوپرچیپ Grace Hopper با ادغام معماریهای گریس و هاپر از طریق رابط NVLink-C2C، مدلی منسجم از حافظه را میان CPU و GPU ایجاد میکند. این یکپارچگی سختافزاری، گلوگاههای انتقال داده را حذف کرده و شتاببخشی فوقالعادهای را برای کاربردهای هوش مصنوعی به ارمغان میآورد.

NVIDIA GH200 NVL2
سیستم GH200 NVL2 با اتصال کامل دو سوپرچیپ از طریق NVLink، قدرتی مضاعف برای پردازشهای موازی تولید میکند. دسترسی به ۲۸۸ گیگابایت حافظه HBM3e و پهنای باند ۱۰ ترابایت بر ثانیه، این سیستم را به راهکاری ایدهآل برای سنگینترین بارهای کاری دادهمحور تبدیل کرده است.
قدرتمندترین زیرساخت گرافیکی جهان برای تبدیل پیچیدهترین تخیلات به واقعیتهای بصری. از رندر تا شبیهسازیهای دقیق مهندسی، ما مرزهای آنچه قابل دیدن است را جابهجا میکنیم.
این سرورها با RTX 6000 نسل Ada، استانداردی جدید برای دیتاسنترهای بصری تعریف کردهاند. با ۴۸ گیگابایت حافظه و معماری انقلابی Ada Lovelace، مجهز به نسل سوم هستههای RT برای دستیابی به فوتورئالیسم و رهگیری پرتو در لحظه؛ میتواند عظیمترین محیطهای سهبعدی و شبیهسازیهای Omniverse را به صورت کاملاً بلادرنگ و با سرعتی خیرهکننده پردازش کند.

Server Edition
این کارت گرافیک برای پیادهسازی در سرورهای مجهز به چندین GPU که نیازمند خنککننده پسیو (Passive) هستند، طراحی شده است. این کارت با ایجاد توازن میان کارایی و بهرهوری انرژی، توان پردازشی مورد نیاز برای بارهای کاری دیتاسنترهای سازمانی را تأمین میکند.

Workstation Edition
این پردازنده گرافیکی که برای ارائه حداکثر عملکرد در ایستگاههای کاری (Workstations) تککارت مهندسی شده است، قدرتی بیرقیب را برای انجام وظایف سنگین و دادهمحور نظیر رندرینگ سهبعدی، توسعه هوش مصنوعی و شبیهسازی بلادرنگ فراهم میکند.

Max-Q Workstation Edition
این نسخه توازنی میان عملکرد و بهرهوری انرژی را برای گردشکارهای مقیاسپذیر برقرار کرده و برای بارهای کاری مبتنی بر چند پردازنده گرافیکی؛ نظیر مدلسازی داده در مقیاس وسیع و یا آموزش و استنتاج هوش مصنوعی چند نمونهای (Multi-instance)، گزینهای ایدهآل است.
| NVIDIA RTX PRO 6000 Blackwell Server Edition |
NVIDIA RTX PRO 6000 Blackwell Workstation Edition |
NVIDIA RTX PRO 6000 Blackwell Max-Q Workstation Edition |
|
|---|---|---|---|
| GPU Memory | 96 GB GDDR7 with error-correcting code (ECC) | 96 GB GDDR7 with error-correcting code (ECC) | 96 GB GDDR7 with error-correcting code (ECC) |
| DisplayPorts | 4x DisplayPort 2.1 | 4x DisplayPort 2.1 | 4x DisplayPort 2.1 |
| Power Consumption | 400-600 W | 600 W | 300 W |
| Graphics Bus | PCIe Gen 5 x16 | PCIe Gen 5 x16 | PCIe Gen 5 x16 |
| Form Factor | 4.4” (H) x 10.5” (L) dual slot | 5.4” (H) x 12” (W) dual slot | 4.4” (H) x 10.5” (L) dual slot |
| Thermal | Passive | Double flow-through | Active |
در دنیایی که دسترسی به پردازندههای گرافیکی انویدیا به چالش اصلی غولهای تکنولوژی تبدیل شده است، انتخاب تامینکننده مناسب تفاوتها را ایجاد میکند.
چرا سازمانهای پیشرو برای پیادهسازی دیتاسنترهای AI به نوران اعتماد میکنند؟
ما معمار زیرساخت پردازشی شما هستیم.
در بازار کمیاب و پرچالش فعلی:
انتخاب بین این دو به استراتژی دیتاسنتر شما بستگی دارد. سیستمهای DGX راهکارهای آمادهبهکار انویدیا هستند که سختافزار و نرمافزار در آنها کاملاً یکپارچه شده و سریعترین زمان را برای رسیدن به بهرهبرداری فراهم میکنند. اما پلتفرمهای HGX به شما اجازه میدهند تا بورد اصلی GPU را در سرورهای برندهای دیگر (مانند Supermicro یا Dell) و با کانفیگهای سفارشیسازی شده (از نظر رم، استوریج و شبکه) پیادهسازی کنید. تیم فنی نوران بر اساس زیرساخت فعلی شما، بهترین گزینه را پیشنهاد میدهد.
تجهیزات نسل جدید (مانند رکهای NVL72) چگالی حرارتی بسیار بالایی داشته و اغلب نیازمند زیرساخت خنککننده مایع (DLC) هستند که در دیتاسنترهای سنتی هوا-خنک وجود ندارد. ما در نوران، علاوه بر تامین پردازنده، در خصوص آمادهسازی سایت و الزامات توان و کولینگ مورد نیاز برای میزبانی از این ابزارهای پردازشی به شما مشاوره تخصصی میدهیم.
تمامی تجهیزات دیتاسنتر انویدیا ارائه شده توسط نوران (اعم از کارتهای PCIe و ماژولهای SXM) دارای ضمانت اصالت کالا هستند. ما امکان تست و بررسی فنی پیش از تحویل نهایی و همچنین تطبیق سریال نامبرها با دیتابیسهای رسمی را برای مشتریان فراهم میکنیم تا با خیالی آسوده سرمایهگذاری کنند.
سری H100 و H200 مخصوص محاسبات ریاضی و هوش مصنوعی طراحی شده و خروجی تصویر ندارند. برای کارهای گرافیکی، رندرینگ، VDI و شبیهسازیهای Omniverse، سری RTX 6000 (نسل Ada یا Blackwell) بهترین انتخاب با هستههای RT اختصاصی است. اگر نیاز شما ترکیبی از هر دو است، ما راهکارهای هیبریدی را به شما پیشنهاد میدهیم.