ここから本文です

機械学習を加速するGPU、TPU、FPGA、ASICの競争に「x86 CPU」が参戦

6/13(木) 9:00配信

TechTargetジャパン

 一般に、究極のパフォーマンスを発揮するAIアプリケーションを必要とする企業が利用できる唯一の選択肢は、カスタムハードウェアだといわれている。GPU(Graphics Processing Unit)をセールスポイントとして大きく躍進しているNVIDIAのような企業もある。同社は熱心なゲーマーが2D/3Dレンダリングに利用するGPUを機械学習の速度向上に活用している。

 Intelはこの競争に加わるのが後れた。だがFPGA(Field-Programmable Gate Array)から機械学習向けに最適化したプロセッサコアに至る一連の技術の構築を加速している。

 究極のパフォーマンスを得るため、カスタムASIC(Application Specific Integrated Circuit)も作られている。カスタムASICは、遅延を最低限に抑えて特定のタスクを実行するよう設計された超小型電子部品だ。

カスタムアプローチ:Tensor Processing Unit

 Googleはカスタムアプローチを長年リードし続けている。自社開発したカスタムチップ「Tensor Processing Unit」(TPU)を利用して、オープンソースのディープラーニングライブラリ「TensorFlow」の処理速度を上げる基盤としている。

 同社のTPUは、2018年12月に行われた機械学習ベンチマーク「MLPerf v0.5」の結果でトップに立っている(訳注)。

訳注:2019年5月時点のトップは「Pascal P100」となっている。Pascal GPUアーキテクチャを採用した「NVIDIA Tesla P100」を指すと思われる。

 IBMはASICだけでなく、教師あり機械学習の速度を上げるために量子コンピューティングを適用できるアプリケーション分野の調査を開始している。この調査で、機械学習の速度向上に寄与する量子コンピューティングに適したデータセットを特定する。

 もう一つの選択肢がFPGAだ。FPGAは回路の再プログラミングが可能だ。そのためASICの安価な代替手段になる。Microsoftはクラウドでの機械学習の速度向上を目的とする「Project Brainwave」にFPGAの利用を検討している。

1/2ページ

最終更新:6/13(木) 9:00
TechTargetジャパン

こんな記事も読まれています

あなたにおすすめの記事