ITインフラ(システム基盤)の技術は、移り変わりが激しい。では、2019年にブレーク必至の技術は何か。IT分野のエキスパート5人による審査会を開催し、「ITインフラテクノロジーAWARD 2019」を選出。激論から導き出した“次に来る”技術を紹介する。

1位はこちら:「コンテナオーケストレーションツール」

 ITインフラテクノロジーAWARDで2019年にブレークが予想される技術として2位に選ばれたのは、「エッジ向けAIチップ」だ。

 エッジ向けAIチップは、エッジ端末に搭載する機械学習計算に特化した半導体チップのことである。エッジ端末に専用チップを搭載し、画像処理などの計算をCPUよりも低消費電力で効率良く行う狙いがある。「2019年から画像処理に利用するカメラ関係などで専用チップを搭載した製品が登場する」(ウルシステムズの漆原氏)と予想する。

 近年、IoT(インターネット・オブ・シングズ)機器の普及に伴い、エッジ端末で取得したデータをクラウド側のAIエンジンで予測/分析する処理が増えている。身近な例を挙げれば、iPhoneに搭載された音声認識エンジン「Siri」やグーグルの音声認識テキスト変換サービス「Cloud Speech-to-Text」などだろう。これらは、クラウド上に学習済みのモデルを配置し、API経由で利用する。前年のITインフラテクノロジーAWARDでグランプリに選出した「学習済みクラウドAI」だ。

 しかし、学習済みクラウドAIを利用する場合は、処理結果がエッジ端末に届くまで通信による遅延が発生する。また、予測/分析の際には必要なデータをエッジ端末からクラウド側に送信しなければならない。これでは通信量は増加するし、外部に出したくないデータもクラウド側に送る必要がある。

 そこで注目されているのが、エッジ側である程度の処理を行い、必要な部分だけをクラウドへ送信する仕組みだ。学習モデルは、大規模な計算が必要になるクラウド側で作成し、学習済みのモデルをエッジ端末に搭載させる。エッジ側はこのモデルを専用チップを使って高速に計算するわけだ。

エッジ端末側にAIチップを持たせる
[画像のクリックで拡大表示]

 例えば、自動運転であれば、普段はエッジ側で処理を行い、特別なインシデントなどが発生した時だけクラウド側にデータを送信するといった具合である。ITジャーナリストの新野氏は「クラウドで学習したモデルをクライアントデバイスに吸い上げて、そこで予測/分析まで行うという流れが来ている。Windows端末もそんなデバイスになるだろう」と予想する。

大手ベンダーの競争が過熱

 エッジ向けAIチップは、米エヌビディア(NVIDIA)や米クアルコム(Qualcomm)などの大手チップベンダーだけでなく、自動運転向けのチップを製造するベンダーも続々と参戦し、開発競争が続いている。

 また、端末ベンダーもAIチップ開発に力を入れている。米アップル(Apple)は、2017年に発売したiPhone Xにニューラルエンジンを搭載した「A11」という専用チップを搭載した。写真やAR(仮想現実)などあらゆる機能でリアルタイムの機械学習に使えるという。

 グーグルも2018年7月にディープラーニング(深層学習)専用のエッジ向けチップ「Edge TPU」を発表している。クラウドにデータを送らずにデバイス自身が学習していくには、CPUでは処理が追い付かない。漆原氏は「用途に合わせたAIチップの重要度が増すだろう」と予想する。