ここから本文です

USBスティックでディープラーニングを実現! Intelが新製品「Movidius Neural Compute Stick」をリリース

7/25(火) 8:10配信

@IT

 Intelは2017年7月20日(米国時間)、USBスティック型のディープラーニング推論キット兼AI(Artificial Intelligence:人工知能)学習アクセラレータ「Movidius Neural Compute Stick」を発表した。同社によると、USB接続でディープニューラルネットワーク処理のAIアクセラレータ機能を追加できる、世界初の製品だという。

 Movidius Neural Compute Stickは製品開発者や研究者、メーカー向けに、AIアプリケーションの開発、チューニング、デプロイの障害を軽減することを目的にした製品で、ディープラーニング推論を行うためのAIアクセラレータをUSB接続で並列追加していける。AIプラットフォーム「Intel Nervana」での人工ニューラルネットワークの訓練、AIやVR(Virtual Reality:仮想現実)、AR(Augmented Reality:拡張現実)、自動運転など新しいワークロードへのインテル Xeon スケーラブル・プロセッサーの最適化、MovidiusのVPU(Vision Processing Unit)技術によるエッジ端末へのAI利用など、AIを活用した次世代の製品やサービスに対応したツール、訓練、デプロイの包括的な選択肢を提供していく戦略の一環として展開する。

 Movidius Neural Compute Stickに搭載される、Intel子会社 MovidiusのVPU技術「Myriad 2 VPU」は、1Wの消費電力で100G FLOPS(Floating-point Operations Per Second)以上の強力な性能を効率的に提供し、このVPU上で、直接リアルタイムディープニューラルネットワークの処理を実行できる。エッジ端末へAIアクセラレータを実装することで、幅広いAIアプリケーションをオフラインでデプロイすることも可能になる。主な特長は以下の通り。

・コンパイル:ディープラーニングフレームワーク「Caffe」ベースの折り畳みニューラルネットワーク(CNN)を、Movidius Myriad 2 VPU上での実行に最適化された組み込みニューラルネットワークに自動的に変換する
・チューニング:業界標準およびカスタム設計のニューラルネットワークの両方に対応するレイヤー単位の性能指標を持つことによって、低消費電力で実性能を最適化する効果的なチューニングを行う。また、開発者は検証スクリプトを使って、デバイス上の最適化モデルの精度と、オリジナルのPCベースモデルの精度を比較できる
・高速化:Movidius Neural Compute Stickは個別にニューラルネットワーク/AIアクセラレータとして動作する。ディープラーニング推論機能を既存のコンピューティングプラットフォームに追加して高性能と省電力を実現できる

 ニューラルネットワーク/AIの開発は、基本的に以下2つの段階を経て行われる。


1. 機械学習技術によって、大規模なサンプルデータセットでアルゴリズムを訓練する
2. 実世界のデータを解釈する必要があるエンドアプリケーションで、このアルゴリズムを実行する

 この2つ目の段階が「推論」と呼ばれる処理となる。この処理は多くのマシンリソースを必要とするため、これまではデータセンターへ送られて大規模コンピュータ上で実行されていた。これをエッジデバイス、またはデバイスの内部でネイティブに実行できるようにするのがMovidius Neural Compute Stickの狙いの1つ。エッジデバイスで実行できれば、レイテンシ、電力消費、プライバシーといった点で多くのメリットが得られるとIntelは述べている。

 販売はディストリビューターを通じて行われる。参考価格は、1台79ドル(約8800円)。

最終更新:7/25(火) 8:10
@IT