米エヌビディア(NVIDIA)は新しいGPU「A100」を発表した。AIの学習や推論において、「Volta」世代の従来GPUに比べて20倍の性能を備えるとする。演算処理性能は、例えばFP32(単精度浮動小数点演算)による学習で312T(テラ)FLOPS、INT8(8ビット整数演算)による推論で1248TOPSに達する。今回、同GPUを利用したスーパーコンピューターや同コンピューターで構成したクラスターも併せて発表した。

新しいGPU「A100」
(画像:エヌビディア)
[画像のクリックで拡大表示]

 A100では、「Ampere」と呼ぶ新しいGPUアーキテクチャーを採用。A100のトランジスター数は54億で、台湾TSMCの7nm世代の製造プロセスで作製した。GPUのダイサイズは826mm2で、同世代のプロセッサーとして「業界最大」(エヌビディア)とする。GPU間を接続するインターコネクトに600Gバイト/秒の「NVLink」を、メモリーに韓国サムスン電子の40GバイトのHBM2を採用した。

 A100を8個利用した新しいスーパーコンピューター(サーバー)が「DGX A100」である。演算処理性能はINT8で10P(ペタ)OPS、FP16(半精度浮動小数点演算)で5PFLOPSに達する。GPU間をつなぐスイッチチップ「NVSwitch」を6個採用し、双方向通信の帯域幅は4.8Tバイト/秒である。エヌビディアが買収した米メラノックス・テクノロジーズ(Mellanox Technologies)のネットワークカード製品で200Gビット/秒の「ConnectX-6 VPI」を9枚備える。CPUには、米AMDの「第2世代EPYC」(開発コード名:「Rome」)を採用した。ストレージとして15TバイトのSSDを備える。DGX A100の価格は19万9000米ドルからである。

「DGX A100」の概要
(図:エヌビディア)
[画像のクリックで拡大表示]

 DGX A100を140基使用した次世代クラスター「DGX SuperPOD」も発表。演算処理性能は700PFLOPSに達する。

DGX A100を140基使用した次世代クラスター「DGX SuperPOD」
(図:エヌビディア)
[画像のクリックで拡大表示]

 エヌビディアはDGX A100でAIデータセンターのランニングコストを従来に比べて大幅に削減できるとみる。例えば、学習に向けたエヌビディアの従来サーバー「DGX-1」50台と、推論に向けたCPUシステム600台で構成するデータセンターを、5台のDGX A100に置き換えられるという。これにより、大幅な省スペース化と消費電力の削減が可能になるとする。具体的には、ラック数が25で、消費電力630kWだったものを、1ラック、28kWにできるという。