米Cerebras Systemsの「CS-1」は、深層学習/機械学習を高速に実行するための、AI処理専用のアクセラレーターである。ラックマウント型(高さ15U)のきょう体を持つAI計算エンジンであり、PCサーバーとネットワーク経由で接続して使う。ネットワークI/Oとして100Gビットイーサネット×12個を備える。

ディープラーニングの学習などを高速に実行するために専用に作成したアクセラレーター「CS-1」の外観。高さ15Uのきょう体で、外部のPCサーバーとはネットワーク(100Gビットイーサネット×12)を介して接続する
(出所:東京エレクトロンデバイス)
[画像のクリックで拡大表示]

 深層学習/機械学習の計算をCS-1にやらせるために必要なソフトウエアライブラリを用意している。開発フレームワークであるTensorFlowとPyTorchで利用できるライブラリや、低レベルAPIライブラリを用意した。これらを使うことで、計算処理をCS-1にオフロードするアプリケーションを開発できる。

 CS-1のハードウエア上の特徴は、直径300ミリメートルのウエーハーの大部分を使った、一辺が21.5センチメートルある大型の半導体チップ「WSE(Wafer Scale Engine)」を搭載していることである。1枚のシリコンチップに、40万個の演算コアと、18GバイトのSRAMのオンチップメモリーを実装している。トランジスタの数は1兆2000億個になる。

 クラスタ接続ではなく、1枚のシリコンで大量の演算コアを実現する。これによりメモリー帯域やコア間のインターコネクト性能に優れる。現在の最大のGPUチップと比較すると、面積が56倍、演算コアが78倍、メモリー帯域が1万倍、インターコネクトが3万3000倍になる。消費電力は最大20kWで、1UのPCサーバー×15台と同等としている。

 米Cerebras Systemsでは、CS-1の性能について「これまで数カ月かかっていた学習が数分で終わる」とアピールしており、より多くのアイディアを試すことができるようになる、としている。

CS-1の概要
用途と機能深層学習/機械学習を高速に実行するための、AI処理専用のアクセラレーター。
PCサーバーとネットワーク経由で接続して使う
ネットワークI/O100Gビットイーサネット×12個
きょう体ラックマウント型(高さ15U)
ライブラリ深層学習/機械学習の計算をCS-1にやらせるために必要なソフトウエアライブラリを用意している。開発フレームワークであるTensorFlowとPyTorchで利用できるライブラリや、低レベルAPIライブラリを用意した。これらを使うことで、計算処理をCS-1にオフロードできるアプリケーションを開発できる
ハードウエア上の特徴直径300ミリメートルのウエーハーの大部分を使った、一辺が21.5センチメートルある大型の半導体チップ「WSE(Wafer Scale Engine)」を搭載していること
WSEの仕様1枚のシリコンチップに、40万個の演算コアと、18GバイトのSRAMのオンチップメモリーを実装している。トランジスタの数は1兆2000億個になる
WSEのメリットクラスタ接続ではなく、1枚のシリコンで大量の演算コアを実現することにより、メモリー帯域やコア間のインターコネクト性能に優れる。現在の最大のGPUチップと比較すると、面積が56倍、演算コアが78倍、メモリー帯域が1万倍、インターコネクトが3万3000倍になる
消費電力最大20kW。1UのPCサーバー×15台と同等
価格個別見積もりだが、数億円クラス
発表日2019年12月19日
提供開始日2019年4月以降
備考発表日/提供開始日と価格は、販売代理店である東京エレクトロンデバイスのもの