, ,

سرور گرافیکی NVIDIA HGX SXM4 A100 8-GPU

NVIDIA

برند : NVIDIA
مدل : NVIDIA HGX SXM4 A100 8-GPU
کاربری : هوش مصنوعی AI – دیتاسنتر – یادگیری عمیق

  • برند : NVIDIA
  • پردازنده گرافیک : NVIDIA HGX A100 8-GPU
  • فرم فاکتور: 8x 80GB NVIDIA A100 SXM4
  • چیپ ست و معماری : GA100 – Ampper
  • فرمت‌های محاسبه HPC و هوش مصنوعی(FP64/TF32*/FP16*/INT8*):  156TF/2.5PF*/5PF*/10POPS*
  • ظرفیت و نوع حافظه گرافیک : 640GB HBM2e with (ECC)
  • پهنای باند حافظه :  4.8TB/s
  • رابط حافظه : 5120bit
  • رابط اتصال: PCIe 4.0 x16
  • مصرف برق : 400W
  • پشتیبانی از NVSwitch 2rd Gen / NVLink 3rd Gen

تحویل کالا: حدود 30 روز کاری
وضعیت محصول: آکبند با کارتن و متعلقات
گارانتی: یکسال گارانتی شرکت NVIDIA
کابل تبدیل: قابل سفارش

۱۳,۷۱۹,۰۰۰,۰۰۰ تومان

سرور گرافیکی یا ابر رایانه هوش مصنوعی NVIDIA HGX A100 SXM4 8xGPU

ابر رایانه یا پردازنده گرافیکی NVIDIA HGX A100 ، یک پلتفرم کلیدی مبتنی بر سرور GPU به شمار می‌رود. این پلتفرم پیشرفته با امنیت بالا، عملکردی با تاخیر کم ارائه می دهد و مجموعه کاملی از قابلیت ها را از شبکه تا محاسبات در مقیاس مرکز داده،که برای تسریع امور مرتبط با هوش مصنوعی (AI) و محاسبات با عملکرد بالا (HPC) طراحی شده است.

سرور گرافیکی  NVIDIA HGX A100 SXM4 80GB محصول شرکت انویدیا است که در تاریخ ۱۶ نوامبر ۲۰۲۰ عرضه شد. این پردازنده گرافیک بر پایه معماری ۷ نانومتری ساخته شده و از پردازنده گرافیکی GA100 استفاده می کند، اما از DirectX پشتیبانی نمی کند. به همین دلیل، ممکن است برخی از جدیدترین بازی ها را اجرا نکند. پردازنده گرافیکی GA100 یک تراشه بزرگ با مساحت ۸۲۶ میلی متر مربع و ۵۴.۲ میلیارد ترانزیستور است. این پردازنده دارای ۶۹۱۲ واحد سایه زن، ۴۳۲ واحد نگاشت بافت و ۱۶۰ واحد خروجی رندر (ROP) می باشد. همچنین ۴۳۲ هسته تنسور در آن تعبیه شده که به بهبود سرعت اجرای برنامه های یادگیری ماشین کمک می کند.

حافظه این پردازنده گرافیک از نوع ۸۰ گیگابایت HBM2e است که با رابط ۵۱۲۰ بیتی به پردازنده متصل شده است. فرکانس کاری پردازنده گرافیکی ۱۲۷۵ مگاهرتز است که تا ۱۴۱۰ مگاهرتز قابل افزایش است و حافظه نیز با فرکانس ۱۵۹۳ مگاهرتز کار می کند. پردازنده گرافیک A100 SXM4 80 گیگابایت از نوع ماژول SXM4 است و به همین دلیل به کانکتور برق جداگانه نیاز دارد. توان مصرفی این کارت ۴۰۰ وات است. همچنین خروجی تصویر ندارد زیرا برای اتصال مستقیم مانیتور طراحی نشده است. در نهایت، این کارت از طریق رابط PCI-Express 4.0 x16 به سایر اجزای سیستم متصل می شود.

پردازنده گرافیکی NVIDIA HGX SXM4 A100 8-GPU

انویدیا: تسریع بخشیدن به کار نوابغ عصر ما

هدف انویدیا سرعت بخشیدن به کار داوینچی‌ها و انیشتین‌های زمان ماست. دانشمندان، پژوهشگران و مهندسان با استفاده از هوش مصنوعی (AI) و رایانش پر بازده (HPC) بر حل برخی از مهم‌ترین چالش‌های علمی، صنعتی و کلان‌داده‌ی جهان تمرکز کرده‌اند.

کارت گرافیک‌ قدرتمند NVIDIA HGX A100 با پردازنده‌های گرافیکی A100 Tensor Core، جهش عظیمی را در پلتفرم شتاب‌دهنده‌ی مراکز داده‌ی ما ایجاد می‌کند. این کارت، شتابی بی‌سابقه در هر مقیاسی ارائه می‌دهد و به نوآوران این امکان را می‌دهد تا کارهای مهم زندگی خود را در طول عمرشان به انجام برسانند.

در این مطلب، دو پلتفرم HGX A100 را برای پیشبرد هوش مصنوعی و رایانش پر بازده معرفی می‌کنم:

  • HGX A100 8-GPU که با NVSwitch متصل می‌شود.
  • HGX A100 4-GPU که با NVLink متصل می‌شود.

در ادامه، به موارد استفاده، مزایای کاربردی و توصیه‌هایی در مورد بهترین روش برای ادغام HGX A100 در سرورهای نسل بعدی می‌پردازم. این امر به شما کمک می‌کند تا دیدگاهی جامع‌تر در سطح سیستم داشته باشید و از آخرین فناوری‌های محاسباتی به طور مؤثرتر استفاده کنید.

NVIDIA HGX A100 8-GPU

HGX A100 با ۸ پردازنده گرافیکی و NVSwitch: سریع‌ترین مسیر برای رسیدن به راه‌حل

برد اصلی HGX A100 با ۸ پردازنده‌ی گرافیکی، بلوک کلیدی پلتفرم سرور HGX A100 است. تصویر زیر این برد اصلی را نشان می‌دهد که میزبان هشت پردازنده‌ی گرافیکی A100 Tensor Core و شش گره‌ی NVSwitch است. هر پردازنده‌ی گرافیکی A100 دارای ۱۲ پورت NVLink است و هر گره‌ی NVSwitch یک سوئیچ NVLink کاملاً غیرمسدودکننده است که به هر هشت پردازنده‌ی گرافیکی A100 متصل می‌شود.

این توپولوژی مش کاملاً متصل به هر پردازنده‌ی گرافیکی A100 اجازه می‌دهد تا با هر پردازنده‌ی گرافیکی A100 دیگر با سرعت دو طرفه‌ی کامل NVLink یعنی ۶۰۰ گیگابایت بر ثانیه ارتباط برقرار کند که ۱۰ برابر پهنای باند سریع‌ترین گذرگاه PCIe نسل ۴ درگاه ۱۶ است. همچنین می‌توان دو برد اصلی را با استفاده از NVSwitch به NVLink به صورت پشت سر هم متصل کرد تا امکان اتصال کامل ۱۶ پردازنده‌ی گرافیکی A100 فراهم شود.

نکات کلیدی:

  • HGX A100 با ۸ پردازنده‌ی گرافیکی، هسته‌ی اصلی سرور HGX A100 است.
  • هر پردازنده‌ی گرافیکی A100 دارای ۱۲ پورت NVLink برای اتصال با سایر پردازنده‌ها است.
  • سوئیچ‌های NVSwitch ارتباط کاملاً غیرمسدودکننده بین تمام پردازنده‌های گرافیکی را برقرار می‌سازند.
  • سرعت اتصال NVLink، ۱۰ برابر سریع‌تر از PCIe نسل ۴ است (۶۰۰ گیگابایت بر ثانیه در مقابل ۶۰ گیگابایت بر ثانیه).
  • می‌توان با اتصال دو برد اصلی با استفاده از NVSwitch، سرورهایی با ۱۶ پردازنده‌ی گرافیکی A100 ایجاد کرد.

این پیکربندی به سریع‌ترین زمان رسیدن به راه‌حل برای کارهای هوش مصنوعی و رایانش پر بازده کمک می‌کند.

دیاگرام منطقی پایه 8-GPU HGX A100.

ایجاد پلتفرم سرور HGX A100 با ۸ پردازنده گرافیکی

با داشتن برد اصلی حاوی پردازنده‌های گرافیکی به عنوان قطعه‌ی کلیدی، شرکای سیستم سرور انویدیا، باقی‌مانده‌ی پلتفرم سرور را با نیازهای خاص کسب‌وکار، از جمله زیرسیستم پردازنده مرکزی، شبکه، ذخیره‌سازی، برق، شکل ظاهری و مدیریت گره، تطبیق می‌دهند. برای دستیابی به بالاترین عملکرد، توصیه‌های زیر در طراحی سیستم پیشنهاد می‌شود:

  • استفاده از دو عدد پردازنده مرکزی قدرتمند: برای همگام شدن با هشت پردازنده‌ی گرافیکی A100، از دو عدد از قدرتمندترین پردازنده‌های مرکزی سرور استفاده کنید.
  • استفاده از تعداد کافی لینک PCIe: حداقل از چهار لینک PCIe x16 بین دو پردازنده‌ی مرکزی و هشت پردازنده‌ی گرافیکی A100 استفاده کنید تا پهنای باند کافی برای ارسال دستورات و داده‌ها از پردازنده‌های مرکزی به پردازنده‌های گرافیکی A100 وجود داشته باشد.
  • شبکه با عملکرد بالا: برای دستیابی به بهترین عملکرد در آموزش هوش مصنوعی در مقیاس (اجرای یک کار آموزش بر روی گره‌های بسیار زیاد به صورت همزمان)، عملکرد شبکه بین گره‌ها حیاتی است. نسبت تعداد کارت‌های شبکه (NIC) به پردازنده‌های گرافیکی A100 را تا ۱ به ۱ در نظر بگیرید. کارت شبکه Mellanox ConnectX-6 میزان ۲۰۰ گیگابیت بر ثانیه بهترین گزینه است.
  • اتصال کارت شبکه و حافظه‌ی NVMe به سوئیچ PCIe و قرار دادن آن‌ها نزدیک به پردازنده‌های گرافیکی A100: از توپولوژی درختی PCIe با عمق کم و متوازن استفاده کنید. سوئیچ PCIe سریع‌ترین انتقال همتا به همتا را از کارت شبکه و حافظه‌ی NVMe به داخل و خارج از پردازنده‌های گرافیکی A100 فراهم می‌کند.
  • بکارگیری GPUDirect Storage: این فناوری تأخیر خواندن/نوشتن را کاهش می‌دهد، سربار پردازنده مرکزی را کم می‌کند و عملکرد بالاتری را امکان پذیر می کند.

با رعایت این نکات، سرورهای HGX A100 با ۸ پردازنده‌ی گرافیکی برای اجرای سریع‌تر کارهای هوش مصنوعی و رایانش پر بازده بهینه‌سازی می‌شوند.

HGX A100 8-GPU system topology example

مزایای NVSwitch در پلتفرم HGX A100 با ۸ پردازنده گرافیکی

برد اصلی HGX A100 با ۸ پردازنده‌ی گرافیکی، از جدیدترین نسل سوئیچ‌های NVSwitch بهره می‌برد. NVSwitch علاوه بر اینکه امکان برقراری سریع‌ترین ارتباط همتا به همتای A100 با سرعت ۶۰۰ گیگابایت بر ثانیه را فراهم می‌کند، به موارد زیر نیز کمک می‌کند:

  • برنامه‌نویسی آسان‌تر: نیازی نیست نگران توپولوژی خاص بین پردازنده‌های گرافیکی A100 باشید. هر پردازنده‌ی گرافیکی A100 می‌تواند با هر پردازنده‌ی گرافیکی دیگر با سرعت کامل ۶۰۰ گیگابایت بر ثانیه NVLink ارتباط برقرار کند. شما می‌توانید زمان بیشتری را صرف حل مسائل علمی کرده و وقت کمتری را صرف نگرانی در مورد پیاده‌سازی‌های خاص سیستم نمایید.
  • مدل‌های هوش مصنوعی بسیار بزرگ‌تر: مدل‌های هوش مصنوعی بزرگ‌تر اغلب به بهبود دقت پیش‌بینی کمک می‌کنند. موازی‌سازی مدل، یک مدل بزرگ را تقسیم کرده و آن را در حافظه پردازنده‌های گرافیکی A100 مختلف توزیع می‌کند. NVSwitch تضمین می‌کند که ارتباط شدید درون مدل به گلوگاه تبدیل نشود. در نتیجه، موازی‌سازی مدل در حال حاضر امکان‌پذیرتر شده است.
  • جداسازی منعطف چند کاربره: هنگامی که چندین کاربر یک سیستم HGX A100 با ۸ پردازنده‌ی گرافیکی را به اشتراک می‌گذارند (به گونه‌ای که هر کاربر مالک یک یا چند پردازنده‌ی گرافیکی A100 باشد)، سوئیچ NVSwitch می‌تواند با غیرفعال کردن پورت‌های NVLink، کاربران را ایزوله کند و در عین حال، سرعت کامل ارتباط همتا به همتای NVLink را بین پردازنده‌های گرافیکی A100 که متعلق به یک کاربر خاص است، حفظ نماید.

به طور کلی، NVSwitch پیچیدگی برنامه‌نویسی را کاهش می‌دهد، از مدل‌های هوش مصنوعی بزرگ‌تر پشتیبانی می‌کند و انعطاف‌پذیری بیشتری را برای استقرارهای چند کاربره فراهم می‌کند. این عوامل باعث می‌شوند تا HGX A100 با ۸ پردازنده‌ی گرافیکی راه‌حلی ایده‌آل برای طیف گسترده‌ای از کارهای هوش مصنوعی و رایانش بازدهی بیشتری داشته باشد.

HGX A100 با ۴ پردازنده گرافیکی و NVLink: مناسب برای تسریع امور با کاربردهای عمومی

در حالی که پلتفرم HGX A100 با ۸ پردازنده گرافیکی و NVSwitch سریع‌ترین عملکرد را ارائه می‌دهد، سناریوهای کاربردی‌ای وجود دارند که در آن‌ها یک گره‌ی سرور HGX A100 با ۴ پردازنده‌ی گرافیکی ایده‌آل است. در اینجا چند نمونه ذکر شده است:

  • نیاز به ظرفیت پردازنده مرکزی بیشتر: برخی از برنامه‌های علمی، به خصوص آن‌هایی که با محاسبات سنگین سر و کار دارند، از ظرفیت پردازنده مرکزی بیشتری نسبت به پردازنده‌های گرافیکی بهره می‌برند. نسبت چهار پردازنده‌ی گرافیکی به دو پردازنده مرکزی، تعادل مناسب‌تری را برای چنین سناریوهایی برقرار می‌کند.
  • محدودیت توان در مرکز داده: در برخی مراکز داده، به دلیل محدودیت‌های زیرساختی، توان قفسه (رک) برای تأمین انرژی سرورها محدود است. در چنین مواقعی، استفاده از پلتفرمی با تعداد کمتر پردازنده‌ی گرافیکی و در نتیجه مصرف پایین‌تر انرژی، ترجیح داده می‌شود.
  • تخصیص منابع به صورت گره‌ای: برخی از مدیران سایت‌های محاسباتی ترجیح می‌دهند منابع را به صورت واحدهای گره‌ای (با حداقل یک گره) به کاربران اختصاص دهند. گره‌ی HGX A100 با ۴ پردازنده‌ی گرافیکی، امکان تخصیص با جزئیات (گرانولاریتی) بیشتر را فراهم کرده و از این طریق به پشتیبانی از کاربران بیشتر کمک می‌کند.

به طور خلاصه، HGX A100 با ۴ پردازنده‌ی گرافیکی، انتخابی ایده‌آل برای سناریوهایی است که در آن‌ها:

  • نیاز به تعادل مناسب بین قدرت پردازنده مرکزی و پردازنده‌ی گرافیکی وجود دارد.
  • محدودیت توان در مرکز داده یک عامل کلیدی است.
  • تخصیص منابع به صورت گره‌ای برای مدیریت کاربران ترجیح داده می‌شود.

چهار پردازنده گرافیکی A100 در پایه پردازنده گرافیکی مستقیماً به NVLink متصل هستند و امکان اتصال کامل را فراهم می کنند. هر پردازنده گرافیکی A100 می تواند با استفاده از پورت های پرسرعت NVLink به حافظه هر پردازنده گرافیکی دیگر A100 دسترسی داشته باشد. پهنای باند همتای A100 به A100 به اندازه ۲۰۰ گیگابایت بر ثانیه دو جهته است که بیش از ۳ برابر سریعتر از سریعترین گذرگاه PCIe Gen4 x16 است.

HGX A100 4-GPU physical view

ایجاد پلتفرم سرور HGX A100 با ۴ پردازنده‌ی گرافیکی

برای دستیابی به حداکثر بازدهی در فرآیند شتاب‌دهی، رعایت نکات زیر در طراحی سیستم پیشنهاد می‌شود:

  • استفاده از یک پردازنده مرکزی قدرتمند: در صورتی که نیازمند ظرفیت پردازنده‌ی مرکزی اضافی نباشید، از یک پردازنده‌ی مرکزی تک با تعداد هسته بالا استفاده کنید. این کار باعث کاهش هزینه کل مواد (BOM) و مصرف برق سیستم شده و زمان‌بندی را ساده‌تر می‌کند.
  • اتصال مستقیم CPU به A100 GPU: سوئیچ PCIe را کنار بگذارید و پردازنده‌ی مرکزی را مستقیماً به پردازنده‌های گرافیکی A100 متصل کنید تا در هزینه کل مواد (BOM) و مصرف برق سیستم صرفه‌جویی شود.
  • تجهیز گره با NIC و NVMe پرسرعت: برای پوشش دادن گستره‌ی وسیعی از موارد استفاده، گره را به یک یا دو کارت شبکه (NIC) 200 گیگابیت بر ثانیه و حافظه‌ی NVMe مجهز کنید. کارت شبکه Mellanox ConnectX-6 به میزان ۲۰۰ گیگابیت بر ثانیه بهترین گزینه است.
  • بکارگیری GPUDirect Storage: این فناوری تأخیر خواندن/نوشتن را کاهش می‌دهد، سربار پردازنده مرکزی را کم می‌کند و عملکرد بالاتری را امکان پذیر می کند.

با رعایت این نکات، سرورهای HGX A100 با ۴ پردازنده‌ی گرافیکی برای اجرای سریع‌تر کارهای هوش مصنوعی و رایانش پر بازده بهینه‌سازی می‌شوند. تصویر زیر نمونه ای از معماری سیستم که در آن  HGX A100 4-GPU یک طراحی ساده و کارآمد را امکان پذیر می کند و BOM سیستم و قدرت کمتر سیستم را به حداقل می رساند.

نمای پایه یک HGX A100 4-GPU

کاربردهای حرفه ای انویدیا HGX A100

۱. قدرتمندترین پلتفرم جامع هوش مصنوعی (AI) و محاسبات با عملکرد بالا (HPC) برای مراکز داده

NVIDIA HGX A100 ترکیبی از جدیدترین پردازنده‌های گرافیکی NVIDIA A100 Tensor Core، اتصال پرسرعت NVLink و NVSwitch، و نرم‌افزارهای کاملاً بهینه شده برای هوش مصنوعی و محاسبات سطح بالا (HPC) است. این پلتفرم، جهشی عظیم در تسریع مراکز داده‌ی ما ایجاد می‌کند و به محققان، دانشمندان و مهندسان این امکان را می‌دهد تا روی حل مهم‌ترین چالش‌های علمی، صنعتی و کلان‌داده‌ی جهان با سرعتی بی‌سابقه کار کنند.

NVIDIA HGX: سکویی ایده‌آل برای همگرایی شبیه‌سازی، تحلیل داده و هوش مصنوعی

مجموعه داده‌های عظیم، مدل‌های بسیار بزرگ و شبیه‌سازی‌های پیچیده نیازمند پردازنده‌های گرافیکی (GPU) متعدد با اتصالات فوق‌العاده سریع هستند. پلتفرم NVIDIA HGX با گردهم آوردن تمام توان پردازنده‌های گرافیکی NVIDIA، فناوری NVLink، شبکه‌ی NVIDIA Mellanox InfiniBand و کلکسیون نرم‌افزاری کاملاً بهینه‌سازی‌شده‌ی هوش مصنوعی و رایانش پر بازده (HPC) NVIDIA از NGC، بالاترین عملکرد را برای اجرای برنامه‌ها به ارمغان می‌آورد. انعطاف‌پذیری و عملکرد بی‌نظیر NVIDIA HGX به محققان و دانشمندان اجازه می‌دهد تا با ترکیب شبیه‌سازی، تحلیل داده و هوش مصنوعی، پیشرفت‌های علمی را تسریع بخشند.

با بهره‌گیری از نسل جدید پردازنده‌های گرافیکی A100 با ظرفیت ۸۰ گیگابایت حافظه، یک سیستم HGX A100 به تنهایی می‌تواند تا ۱.۳ ترابایت حافظه‌ی پردازنده‌ی گرافیکی و پهنای باند حافظه‌ی خیره‌کننده‌ی ۲ ترابایت بر ثانیه را ارائه دهد. این قابلیت، شتابی بی‌سابقه را برای پردازش‌های نوظهور که نیازمند مدل‌های بسیار بزرگ و مجموعه داده‌های عظیم هستند، فراهم می‌کند.

نسل سوم NVLink: خلق یک ابر GPU واحد

اجرای برنامه‌ها بر روی چندین پردازنده‌ی گرافیکی نیازمند انتقال اطلاعات با سرعتی بسیار بالا است. نسل سوم فناوری NVLink شرکت انویدیا که در پردازنده‌های گرافیکی A100 Tensor Core تعبیه شده است، پهنای باند مستقیم بین پردازنده‌های گرافیکی را به ۶۰۰ گیگابایت بر ثانیه افزایش می‌دهد که تقریباً ۱۰ برابر سریع‌تر از نسل چهارم PCIe است. نسل سوم NVLink در سرورهای HGX A100 با ۴ و ۸ پردازنده‌ی گرافیکی از شرکت‌های پیشرو در زمینه‌ی تولید رایانه در دسترس است.

نسل دوم NVSwitch: پیشران محاسبات با پهنای باند کامل

NVSwitch NVIDIA که با فناوری NVLink پشتیبانی می‌شود، یک شبکه‌ی واحد ایجاد می‌کند که به کل گره (مجموعه‌ی سخت‌افزاری) اجازه‌ی عملکرد به عنوان یک پردازنده‌ی گرافیکی غول‌آسا را می‌دهد. محققان می‌توانند بدون محدودیت در توان محاسباتی، مدل‌هایی در مقیاس‌های بی‌سابقه اجرا کنند و پیچیده‌ترین مسائل رایانش پر بازده را حل نمایند.

HGX A100 4-GPU & 8-GPU & 16-GPU

۲. یادگیری عمیق

  • آموزش یادگیری عمیق

مدل‌های هوش مصنوعی با روی آوردن به چالش‌های پیچیده‌تر مانند هوش مصنوعی مکالمه‌محور، روز به روز پیچیده‌تر می‌شوند. آموزش این مدل‌ها نیازمند قدرت محاسباتی بسیار زیاد و قابلیت ارتقاء (مقیاس‌پذیری) است.

هسته‌های تنسور NVIDIA A100 با تنسور فلوت (TF32) تا ۲۰ برابر عملکرد بهتر نسبت به نسل پیشین (NVIDIA Volta) ارائه می‌دهند، بدون اینکه نیاز به تغییر کد باشد. همچنین با دقت مختلط خودکار و FP16، این عملکرد تا ۲ برابر دیگر نیز افزایش می‌یابد. با ترکیب این فناوری‌ها با NVIDIA NVLink، NVIDIA NVSwitch، نسل چهارم رابط درگاه مشترک (PCIe Gen4)، NVIDIA InfiniBand و کیت توسعه نرم‌افزاری NVIDIA Magnum IO امکان اتصال هزاران پردازنده گرافیکی A100 به یکدیگر فراهم می‌شود.

با استفاده از ۲۰۴۸ پردازنده گرافیکی A100، یک حجم کاری آموزشی مانند مدل BERT را می‌توان تنها در کمتر از یک دقیقه در مقیاس بزرگ حل کرد که این سرعت، رکورد جهانی زمان رسیدن به راه‌حل به شمار می‌رود.

برای مدل‌های بسیار بزرگ با جداول داده‌ای حجیم مانند مدل‌های توصیه‌گر یادگیری عمیق (DLRM)، حافظه‌ی یکپارچه‌ی هر گره‌ی A100 نسخه‌ی ۸۰ گیگابایتی تا ۱.۳ ترابایت می‌رسد و توان عملیاتی آن تا ۳ برابر سریع‌تر از نسخه‌ی ۴۰ گیگابایتی A100 است.

نفوذ و پیشتازی شرکت NVIDIA در MLPerf، با ثبت چندین رکورد عملکردی در این بنچ‌مارک صنعتی برای آموزش هوش مصنوعی.

Deep Learning Training
  • استنتاج یادگیری عمیق

پردازنده‌ گرافیکی A100 با معرفی قابلیت‌های پیشگامانه، بهینه‌سازی ویژه‌ای را برای کارهای استنتاج یادگیری عمیق ارائه می‌دهد. این پردازنده قادر است دامنه‌ی وسیعی از دقت‌ها، از FP32 تا INT4 را تسریع کند. فناوری چندین نمونه‌ی پردازنده گرافیکی (MIG) به چندین شبکه اجازه می‌دهد تا به طور همزمان روی یک A100 واحد کار کنند تا از منابع محاسباتی به شکل بهینه استفاده شود. همچنین، پشتیبانی از کمبود ساختاری، حداکثر تا ۲ برابر عملکرد بیشتر را به دستاوردهای دیگر A100 در زمینه‌ی استنتاج اضافه می‌کند.

در مدل‌های پیشرفته‌ی هوش مصنوعی مکالمه‌محور مانند BERT، A100 توان عملیاتی استنتاج را تا ۲۴۹ برابر سریع‌تر از CPUها می‌کند.

در پیچیده‌ترین مدل‌هایی که با محدودیت اندازه‌ی گروه (batch-size) مواجه هستند، مانند RNN-T برای تشخیص گفتار خودکار، A100 نسخه‌ی ۸۰ گیگابایتی با افزایش ظرفیت حافظه، اندازه‌ی هر MIG را دو برابر می‌کند و توان عملیاتی تا ۱.۲۵ برابر سریع‌تر از A100 نسخه‌ی ۴۰ گیگابایتی ارائه می‌دهد.

عملکرد بی‌رقیب NVIDIA در MLPerf Inference به اثبات رسیده است. A100 با ۲۰ برابر عملکرد بیشتر، این پیشتازی را بیش از پیش افزایش می‌دهد.

Deep Learning Inference

۳. محاسبات با عملکرد بالا (HPC)

برای رسیدن به کشفیات نسل بعد، دانشمندان به سراغ شبیه‌سازی‌هایی می‌روند تا درک بهتری از دنیای اطرافمان به دست آورند.

پردازنده گرافیکی A100 شرکت NVIDIA با معرفی هسته‌های تنسور با دقت دوگانه (double precision)، بزرگترین جهش در عملکرد HPC را از زمان معرفی پردازنده‌های گرافیکی ارائه می‌دهد. با ترکیب این فناوری با ۸۰ گیگابایت از سریع‌ترین حافظه‌های GPU، پژوهشگران می‌توانند یک شبیه‌سازی ۱۰ ساعته با دقت دوگانه را با A100 به کمتر از چهار ساعت کاهش دهند. همچنین، برنامه‌های کاربردی HPC می‌توانند از TF32 برای دستیابی به حداکثر ۱۱ برابر توان عملیاتی بالاتر برای عملیات ضرب ماتریس متراکم تک-دقت (single-precision) بهره‌مند شوند.

در مورد برنامه‌های کاربردی HPC با بزرگترین مجموعه داده‌ها، حافظه‌ی اضافی A100 نسخه‌ی ۸۰ گیگابایتی، توان عملیاتی را تا ۲ برابر با نرم‌افزار Quantum Espresso که برای شبیه‌سازی مواد استفاده می‌شود، افزایش می‌دهد. این حافظه عظیم و پهنای باند بی‌سابقه‌ی حافظه، A100 نسخه‌ی ۸۰ گیگابایتی را به سکوی ایده‌آلی برای کارهای نسل بعد تبدیل می‌کند.

High-Performance Computing

۴. تحلیل داده با عملکرد بالا

دانشمندان داده نیاز دارند تا بتوانند مجموعه داده‌های عظیم را تحلیل، تجسم و به بینش‌های کاربردی تبدیل کنند. اما راه‌حل‌های مقیاس‌پذیر (scale-out) اغلب به دلیل پراکندگی مجموعه داده‌ها در سرورهای مختلف، با مشکل مواجه می‌شوند.

سرورهای مجهز به پردازنده‌های گرافیکی A100، قدرت محاسباتی مورد نیاز را به همراه حافظه‌ی بسیار زیاد (بیش از ۲ ترابایت بر ثانیه پهنای باند حافظه)، قابلیت ارتقاء با NVIDIA NVLink و NVSwitch و در نهایت با ترکیب با InfiniBand، NVIDIA Magnum IO و مجموعه‌ی کتابخانه‌های منبع باز RAPIDS شامل RAPIDS Accelerator برای Apache Spark جهت تحلیل داده‌های شتاب‌دهنده با GPU، در اختیار شما قرار می‌دهند. این پلتفرم مرکز داده‌ی NVIDIA، کارهای عظیم را با سطوح بی‌سابقه‌ای از عملکرد و کارایی، تسریع می‌کند.

در یک بنچ‌مارک تحلیلی کلان‌داده، A100 نسخه‌ی ۸۰ گیگابایتی، تحلیلی با سرعتی ۲ برابر سریع‌تر از A100 نسخه‌ی ۴۰ گیگابایتی ارائه داد که این امر، آن را برای کارهای نوظهوری که با انفجار اندازه‌ی مجموعه داده‌ها مواجه هستند، ایده‌آل می‌کند.

High-Performance Data Analytics

۵.  بهره‌برداری سازگار با نیازهای سازمانی

پردازنده‌ی گرافیکی A100 با فناوری MIG، میزان استفاده از زیرساخت‌های شتاب‌دهنده‌ی GPU را به حداکثر می‌رساند. با MIG، یک پردازنده‌ی گرافیکی A100 را می‌توان به حداکثر هفت بخش مستقل تقسیم کرد تا دسترسی چندین کاربر به شتاب‌دهنده‌ی GPU فراهم شود. در نسخه‌ی ۴۰ گیگابایتی A100، هر بخش MIG می‌تواند تا ۵ گیگابایت حافظه اختصاص دهد و این مقدار با ظرفیت حافظه‌ی بیشتر نسخه‌ی ۸۰ گیگابایتی A100، تا دو برابر یعنی ۱۰ گیگابایت افزایش می‌یابد.

MIG با Kubernetes، containerها و مجازی‌سازی سرور مبتنی بر هایپرویزور سازگاری دارد. این فناوری به مدیران زیرساخت اجازه می‌دهد تا برای هر کار، یک پردازنده‌ی گرافیکی با اندازه‌ی مناسب و کیفیت خدمات تضمین‌شده (QoS) ارائه دهند و بدین ترتیب، دسترسی به منابع محاسباتی شتاب‌دهنده را برای تمامی کاربران گسترش دهند.

بهره‌برداری سازگار با نیازهای سازمانی

پردازنده‌های گرافیکی (GPU) برای مراکز داده

در نتیجه دو مدل از پردازنده‌های گرافیکی قدرتمند NVIDIA A100 وجود دارد:

  • A100 برای HGX: این مدل برای بالاترین سطح عملکرد در تمامی کارها طراحی شده است. HGX مخفف “NVIDIA HGX” است که یک پلتفرم اختصاصی برای A100 با اتصالات پر سرعت است که امکان جابجایی بسیار سریع داده بین پردازنده‌های گرافیکی را فراهم می‌کند. این مدل برای کارهایی که نیازمند حداکثر قدرت محاسباتی هستند، مانند هوش مصنوعی (AI) پیشرفته و شبیه‌سازی‌های علمی پیچیده، ایده‌آل است.
  • A100 برای PCIe: این مدل برای بالاترین انعطاف‌پذیری در تمامی کارها ساخته شده است. PCIe مخفف “Peripheral Component Interconnect Express” است که یک رابط اتصال استاندارد برای سخت‌افزارهای رایانه‌ای است. این مدل A100 با طیف وسیعی از مادربردهای سرور سازگار است و راه‌اندازی آن ساده‌تر است. A100 برای PCIe همچنان یک پردازنده‌ی گرافیکی بسیار قدرتمند است و برای بسیاری از کارها، از جمله یادگیری عمیق، تجزیه و تحلیل داده‌های حجیم و محاسبات با کارایی بالا، مناسب است.
Data Center GPUs
Nvidia HGX A100 80GB and PCIe A100 80GB
شناسه محصول: NVIDIA HGX SXM5 H100 80GB-1 دسته: , , برچسب: ,

سرور گرافیکی NVIDIA HGX SXM5 A100 80GB 8xGPU

کارایی و رده بندی

, , ,

برند و سری

مدل

NVIDIA HGX SXM4 َA100 80GB 8-GPU

پردازنده گرافیک / Graphics Card

Release Date :November 16th, 2020
Generation : Tesla Ampere
Production : Active
Bus Interface : 8x PCIe Gen4 x16

پردازنده گرافیکی / Graphics Processor

GPU Name : GA100
Architecture : Ampere
Foundry : TSMC
Process Size : 7 nm
Transistors : 54,200 million
Die Size : 826 mm²

پیکربندی رندر / Render Config

Shading Units : 6912
TMUs : 432
ROPs : 160
SM Count : 108
Tensor Cores : 432
L1 Cache : 192 KB (per SM)
L2 Cache : 40 MB

حافظه / Memory

Memory Size : 80GB x 8 = 640GB
Memory Type : HBM2e
Memory Bus : 5120 bit
Bandwidth : 2.04 TB/s

سرعت اجرای پردازنده / Clock Speeds

Base Clock : 1275 MHz
Boost Clock : 1410 MHz
Memory Clock : 1593 MHz 3.2 Gbps effective

عملکرد نظری / Theoretical Performance

Pixel Rate: 225.6 GPixel/s
Texture Rate: 609.1 GTexel/s
BF16: 311.84 TFLOPS (16:1)
TF32: 155.92 TFLOPs (8:1)
FP64 Tensor: 19.49 TFLOPS (1:1)
FP16 (half): 77.97 TFLOPS (4:1)
FP32 (float): 19.49 TFLOPS
FP64 (double): 9.746 TFLOPS (1:2)

ویژگی های گرافیک / Graphics Features

DirectX : N/A
OpenGL : N/A
OpenCL : 3.0
Vulkan :N/A
CUDA : 8.0
Shader Model : N/A

شبکه سازی / Networking

8x Single-Port Mellanox
ConnectX-6 VPI 200Gb/s HDR
InfiniBand 1x Dual-Port
Mellanox ConnectX-6 VPI
10/25/50/100/200Gb/s Ethernet

پشتیبانی از تکنولوژیهای و ویژگی ها

PCI Express Gen 4
جهش عملکرد نمایی با معماری آمپر
کارایی بی سابقه با CoWoS با HBM2e
برنامه های کاربردی در مقیاس عظیم با NVIDIA NVLink
برنامه نویسی ساده تر با موتور مهاجرت صفحه

طراحی برد / Board Design

Slot Width : SXM4 Module
Thermal design power (TDP): 400 W
Suggested PSU : 800 W
Outputs : No outputs
Power Connectors : None

گارانتی

,

تعداد نظرات 0

0.0 میانگین نظرات
0
0
0
0
0

اولین نفری باشید که نظری را برای “سرور گرافیکی NVIDIA HGX SXM4 A100 8-GPU” می نویسید.

هنوز دیدگاه یا پرسشی ثبت نشده است.

سبد خرید

close