第2世代Xeon Scalable Processors(Xeonスケーラブル・プロセッサー、以下第2世代Xeon SP)の特徴の一つに、「DL Boost(ディーエルブースト)」がある。以前の記事で説明した通り、DL BoostはAI(Artificial Intelligence、人工知能)のアルゴリズム開発に利用される手法である深層学習(ディープラーニング)のうち、学習の成果を利用して画像認識や音声認識などの処理を行なう「推論」をターゲットにした新命令セットだ。

 米インテル(Intel)が深層学習の推論(以下、DL推論)を強化する背景には競争の激化がある。インテルのXeonはクラウドでのDL推論で大きなシェアを持っている。それに対して、深層学習の「学習」処理における王者である米エヌビディア(NVIDIA)、インテルの大規模な顧客である一方で自身でチップ「TPU(Tensor Processing Unit)」を開発している米グーグル(Google)、そして先日参入を明らかにした米クアルコム(Qualcomm)などがインテルの座を虎視眈々(たんたん)と狙っている。インテルとしては、これら競合に対して反撃の準備をする必要がある。

Xeon SPとその搭載サーバーなどのハードウエア
(撮影:笠原 一輝)
[画像のクリックで拡大表示]

クラウドでの推論では圧倒的に多くのユーザーを抱えるXeon

 2010年代の後半になって改めて注目を浴びたAI。AIが注目技術として再浮上した背景には、機械学習(マシンラーニング)の手法の一つである深層学習の研究が進んだこと、同時にCPUやGPU(Graphics Processing Unit)の性能が大きく向上したこと、結果として深層学習が実用レベルになったことがある。

 特に大きな影響があったのはGPUの高性能化だ。並列して大規模に大容量のデータを処理するのが得意なGPUを活用することで、それまでの演算装置では膨大な時間がかかっていた処理が、実用的な時間で終わるようになってきた。AIの実業への利用は進んでおり、今やAIという言葉を聞かない日はないほどのブームになっている。

 機械学習や深層学習では大きく分けて2つの処理がある。学習(Training)と推論(Inference)だ。学習とはプログラマーが作り上げた脳の仕組みを模したDNN(Deep Neural Network)などにデータを読み込ませて、例えば猫や犬の画像をそれぞれ猫、犬であると学習させるプロセスのこと。子供に言語を教えて教育するようなプロセスだと考えれば分かりやすいだろう。

 それに対して推論は、学習させたDNNを利用して、犬の画像を読み込ませたら犬と判別し、猫の写真を読み込ませたら猫と判別するプロセスのことだ。クラウド側では、主に画像認識や音声認識といったアプリケーションでDL推論が利用される。

 深層学習の学習処理は、大量のデータを並列に処理するという特性により、エヌビディアのGPUなどをクラウドやオンプレミスのサーバー上で利用するのが一般的だ。一方の推論は、自動車やスマートフォンなどのエッジデバイス(クライアントと言い換えてもよい)ではArmプロセッサー(英アームが提供するアーキテクチャーを採用したプロセッサー)や専用のアクセラレーターで実行する。クラウドではXeonプロセッサーで実行するのが一般的だ。例えばスマートフォンの音声認識機能や写真ツールの「AIを活用した編集」などの裏側では、データセンター内のXeonプロセッサーが推論処理をしている。

この先は日経 xTECH Active会員の登録が必要です

日経xTECH Activeは、IT/製造/建設各分野にかかわる企業向け製品・サービスについて、選択や導入を支援する情報サイトです。製品・サービス情報、導入事例などのコンテンツを多数掲載しています。初めてご覧になる際には、会員登録(無料)をお願いいたします。