NEWS

2024/03/21

【プレスリリース】スーパーマイクロ、新しいNVIDIA Blackwellアーキテクチャソリューションを搭載した新世代のシステムおよびラックアーキテクチャでAI最適化製品ポートフォリオを拡大

大規模なCSPおよびNSP向けの強力でエネルギー効率の高いソリューションは、NVIDIA Quantum X 800プラットフォームとNVIDIA AI Enterprise 5.0を搭載した次世代のNVIDIA GPUおよびCPUのフルスタックを搭載

サンノゼ(カリフォルニア州), 2024年3月21日 /PRNewswire/ -- NVIDIA GTC 2024, -- スーパーマイクロ(Supermicro, Inc.、NASDAQ: SMCI)は、AI、クラウド、ストレージ、5G/EdgeのトータルITソリューションプロバイダーであり、最新のNVIDIA GB200 Grace™ Blackwell Superchip、NVIDIA B200 Tensor Core、B100 Tensor Core GPUなど、NVIDIAの次世代データセンター製品を搭載した大規模生成AI向けの新しいAIシステムを発表しました。スーパーマイクロは、現在のNVIDIA HGX™ H100/H200 8-GPUシステムを強化し、NVIDIA HGX™ B100 8-GPUにドロップインできるようにし、B200をサポートするように強化することで、納品までの時間を短縮します。さらに、スーパーマイクロは、72個のNVIDIA Blackwell GPUを搭載した完全なラックレベルソリューションであるNVIDIA GB200 NVL72を含む、NVIDIA GB200を搭載した新しい製品により、幅広いNVIDIA MGX™システムラインナップをさらに強化します。また、スーパーマイクロは4U NVIDIA HGX B200 8-GPU液冷システムを含む新しいシステムをラインナップに追加します。

2024032101.JPG 

「AI向けのビルディングブロックアーキテクチャおよび全IT規模のラックアーキテクチャに注力することにより、私たちはNVIDIA Blackwellアーキテクチャを基盤としたGPUの高度な要件に対応した次世代システムを設計することができました。その一例として、新型の4U液冷式NVIDIA HGX B200 8-GPUベースシステムや、NVIDIA GB200 NVL72を搭載した完全統合型のチップ直結液冷ラックなどがあります。」と、スーパーマイクロの社長兼CEOであるCharles Liang氏は述べています。さらに、「これらの新製品は、スーパーマイクロとNVIDIAの実績あるHGXおよびMGXシステムアーキテクチャをベースに構築されており、NVIDIA Blackwell GPUの新機能に最適化されています。スーパーマイクロは、1kWのGPUを幅広い空冷式および液冷式システムに組み込む専門知識を有しており、また月間5,000ラックのラックスケール生産能力を持ち、NVIDIA Blackwell GPUを搭載したフルラッククラスタの市場投入で先駆けとなることを見込んでいます。」と続けています。

スーパーマイクロのチップ直結液冷技術により、最新GPUの熱設計電力(TDP)を増加させ、NVIDIA Blackwell GPUの全潜在能力を引き出すことが可能になります。スーパーマイクロのNVIDIA Blackwellを搭載したHGXおよびMGXシステムは、AIインフラの未来の基盤となる構成要素であり、数兆パラメータのAIトレーニングとリアルタイムAI推論において、画期的な性能を提供します。

NVIDIA Blackwell B200およびB100 Tensor Core GPU向けに最適化されたスーパーマイクロの多様なシステムが準備され、最新のNVIDIA AI Enterpriseソフトウェアで検証されます。これには、NVIDIA NIM推論マイクロサービスのサポートが追加されています。スーパーマイクロのシステムには以下が含まれます。 

*NVIDIA HGX B100 8-GPUおよびHGX B200 8-GPUシステム
* 最大10GPUの5U/4U PCIe GPUシステム
* 8U筐体に最大20基のB100 GPU、6U筐体に最大10基のB100 GPUを搭載可能なSuperBlade®を採用
* 最大3基のB100 GPUを搭載可能な2U Hyper
* 最大4基のB100 GPUを搭載したスーパーマイクロ2U x86 MGXシステム

巨大な基盤AIモデルのトレーニングのために、スーパーマイクロは市場で最初にNVIDIA HGX B200 8-GPUおよびHGX B100 8-GPUシステムをリリースする準備ができています。これらのシステムは、1.8TB/秒の高速第5世代のNVIDIA® NVLink® インターコネクトを介して接続された8つのNVIDIA Blackwell GPUを特徴とし、前世代の性能を倍増させ、1.5TBの合計高帯域幅メモリを備えています。これにより、NVIDIA Hopperアーキテクチャの世代と比較して、GPT-MoE-1.8TモデルなどのLLMに対するトレーニング結果を3倍速く提供します。これらのシステムは、NVIDIA Quantum-2 InfiniBandとNVIDIA Spectrum-X Ethernetオプションの両方をサポートし、GPU対NIC比が1:1であるため、クラスタに拡張できる高度なネットワーキングを特徴としています。

「スーパーマイクロは、市場の現在のニーズに対応できる、AIトレーニングおよび推論に最適化された加速コンピューティングプラットフォームサーバーの驚くべき範囲を市場に提供し続けています。」と、NVIDIAのGPUプロダクトマネジメント副社長であるKaustubh Sanghani氏は述べました。さらに「私たちはスーパーマイクロと緊密に協力し、最も最適化されたソリューションをお客様に提供しています。」と続けています。

最も要求の厳しいLLM推論ワークロードのために、スーパーマイクロはNVIDIA GB200 Grace Blackwell Superchipを搭載した複数の新しいMGXシステムをリリースしています。これは、NVIDIA Grace CPUと2つのNVIDIA Blackwell GPUを組み合わせたものです。GB200システムを搭載したスーパーマイクロのNVIDIA MGXは、NVIDIA HGX H100と比較して最大30倍の高速化を実現し、AI推論のパフォーマンスを飛躍的に向上させます。スーパーマイクロとNVIDIAは、NVIDIA GB200 NVL72を使用して、単一のラック内で36のGrace CPUと72のBlackwell GPUを接続するラックスケールソリューションを開発しました。72のGPUすべてが第5世代のNVIDIA NVLinkと相互接続され、1.8TB/秒でGPU間通信が可能です。さらに、推論ワークロードのために、スーパーマイクロはGH200製品ラインに基づく2UサーバーであるARS-221GL-NHIRを発表しており、これは900Gb/秒の高速インターコネクトを介して2台のGH200サーバーが接続される予定です。さらに詳しい情報を知りたい方は、GTCでのスーパーマイクロのブースにお越しください。

スーパーマイクロのシステムは、NVIDIA Quantum-X800 QM3400スイッチとSuperNIC800からなる今後発売されるNVIDIA Quantum-X800 InfiniBandプラットフォーム、そしてNVIDIA Spectrum-X800 SN5600スイッチとSuperNIC800からなるNVIDIA Spectrum-X800 Ethernetプラットフォームもサポートする予定です。NVIDIA Blackwellアーキテクチャ、NVIDIA Quantum-X800、およびSpectrum-X800に最適化されたこれらのシステムは、AIインフラのための最高レベルのネットワーキング性能を提供します。

スーパーマイクロが提供するNVIDIAソリューションの詳細については、https://www.supermicro.com/en/accelerators/nvidiaをご覧ください。

NVIDIAのB200とGB200を搭載したスーパーマイクロの今後のシステムラインナップは以下の通りです。

* スーパーマイクロのNVIDIA HGX B200 8-GPU空冷および液冷システムは、最高の生成AIトレーニング性能を実現するためのものです。このシステムは、第5世代のNVLinkを介して接続された8つのNVIDIA Blackwell GPUを特徴とし、最大60TB/秒の1.5TB高帯域幅メモリプールを備えており、AIトレーニングワークロードの加速に貢献します。

* スーパーマイクロで最も売れているAIトレーニングシステムである、NVIDIA HGX H100/H200 8-GPUを搭載した4U/8Uシステムは、NVIDIAが近く発表するHGX B100 8-GPUにも対応します。
* スーパーマイクロのラックレベルソリューションは、サーバーノードとしてGB200 Superchipシステムを特徴とし、各ノードに2つのGrace CPUと4つのNVIDIA Blackwell GPUを搭載しています。スーパーマイクロのチップ直結液冷方式は、1つの44U ORV3ラック内に72個のGB200 192GB GPU(各GPUにつき1200WのTDP)を搭載し、密度を最大化します。

GTC 2024でのスーパーマイクロ

スーパーマイクロは、3月18~21日までサンノゼコンベンションセンターで開催されるNVIDIAのGTC 2024イベントで、AI向けのGPUシステムの完全なポートフォリオを披露する予定です。スーパーマイクロのブース#1016では、生成AIモデルのトレーニング、AI推論、エッジAIなど、幅広いAIアプリケーション向けに構築されたソリューションをご覧いただけます。スーパーマイクロは、第5世代のNVLinkで相互接続された72個の液冷GPUを搭載したシステムを特徴とする、近日中に発売されるNVIDIA GB200を使用したコンセプトラックを含む、2つのラックレベルソリューションも展示する予定です。

GTC 2024で展示されるスーパーマイクロのソリューションには以下が含まれます。 

* スーパーマイクロの液冷式AIトレーニングラックは、NVIDIA HGX H200 8-GPUを搭載した8台の4U 8-GPUシステムを特徴としています
* スーパーマイクロのコンセプトORV3ラックは、第5世代のNVLinkを介して接続された合計72個のNVIDIA GB200 Superchipを搭載した液冷式MGXシステムノードをホスティングしています
* スーパーマイクロのMGXシステムには、1U液冷式NVIDIA GH200 Grace Hopper Superchipシステムが含まれます
* スーパーマイクロのHyper-EシステムでエッジでのGPUコンピューティングを実現します
* 高性能AIデータパイプライン向けSupermicro Petascaleオールフラッシュストレージシステム

Supermicro (Super Micro Computer, Inc.)について

Supermicro(NASDAQ: SMCI)は、アプリケーションに最適化したハードウェアとトータルITソリューションのグローバルリーダーです。米国カリフォルニア州サンノゼで設立し、本社を置くSupermicroは、エンタープライズ、クラウド、AI、HPC、IoT/Edgeを含むITインフラストラクチャー市場に、いち早くイノベーションを提供することに取り組んでいます。当社は、サーバー、AI、ストレージ、IoT、ネットワークスイッチ、ソフトウェア、サービスを提供する、トータルITソリューションプロバイダーとして常に変革をもたらすことに注力し、様々な種類のマザーボード、シャーシ、電源に至る製品を、自社で設計、製造し、提供しています。当社の製品は、生産規模と効率のため、グローバルな運用を活用して米国、台湾、オランダにおいて、設計および製造しており、TCOの改善、環境への影響を減らすグリーンコンピューティングを目指した最適化を促進しています。数々の受賞歴をもたらしている当社独自のServer Building Block Solutions(R)は、様々なフォームファクタ―、プロセッサー、メモリー、GPUなどのアクセラレータ、ストレージ、ネットワーク、電源、冷却方式(空冷や液冷)の組み合わせの中から、お客様に合った最適な構成を構築することが可能であり、アプリケーションとワークロードの最適化を実現します。

Supermicro、Server Building Block Solutions、We Keep IT Green は、Super Micro Computer, Inc. の商標または登録商標です。他のすべてのブランド、名称、商標は、それぞれの所有者に帰属します。

Supermicro の最新ニュースおよび発表資料は、LinkedIn, Facebook, Twitter, Twitter(Japan) でご覧いただけます。

記事参照元:https://www.supermicro.com/ja/news/resources/news

お問い合わせ

ご不明な点は、下記お問い合わせフォームよりお願いいたします。

supermicroお問い合わせフォーム