Nvidiaが”HGX-2″モデルを発表 – ターゲットはHPCやAI

大手サーバーメーカー向けのパワフルなシステムはTesla V100 GPUを16個搭載する

Nvidiaは、GPU Tesla V100を16個搭載するHGX-2を発表しました。この新製品は、人工知能モデルの訓練と高性能コンピューティング(HPC)ワークロードを実行します。

サーバーメーカーのレノボやQCT、スーパーマイクロ、Wiwynnは、今年後半にHGX-2の独自のバージョンをリリースします。それはODM(相手先ブランド設計メーカー)のFoxconn、Inventec、QuanteそしてWistronでも同様です。

Nvidiaは以前、プラットフォームDGX-2に関する独自の見解を市場に公表していました。この新たな声明で、Nvidiaは他のメーカーに参照アーキテクチャを公開しました。16個のGPUがNvidia独自の相互接続ファブリックであるNVSwitchを介してリンクされています。

データセンターが身近なものに

台湾で開催されたNvidiaのGPU技術会議で、「コンピューティングの世界は変わった」とNvidiaの創設者兼CEOのJ.フアン氏は述べました。

「CPUの規模は、コンピューティングに対する需要が急速に高まる中で衰退しました。NvidiaのHGX-2はTensor Core GPUsを搭載し、パワフルで汎用性の高いコンピューティングプラットフォームを産業界に提供します。それはHPCとAIを融合して世界の大きな課題を解決するでしょう」

昨年発表されたHGX-1は多くの世界最大手サーバーメーカーで採用され、AWS、フェイスブックそしてマイクロソフトでも採用されています。マイクロソフトに関しては、HGX-1をプロジェクト・オリンパスのオープンソースデザインに統一しました。

スーパーマイクロの社長兼CEO、C.リャン氏は
「我々はNvidiaのパートナーとして働けることを大変誇りに思います。AIクラウドコンピューティングに対する需要は、今日の近代的技術環境において、ますます高まっています。HGX-2の、ハイパフォーマンスでモジュール化された柔軟なシステムは、学術領域や科学分野から政府官公庁での利用にまでわたるまで、様々なコンピューティング分野に大きな貢献をすると私は強く確信しています。」
と述べました。(参照:Supermicroプレスリリース)

また、16個のGPUはHBM2の半分のテラバイトの記憶容量と、2ペタフロップスの計算能力を提供します。

– Data Center Dynamics
原文はこちら