ここから本文です

AIの拡大で増大するカスタムハードウェア需要

6/6(木) 8:00配信

TechTargetジャパン

 人工知能(AI)への2019年の投資額(欧州全域)は前年比49%増になる見込みだという。IDCのCustomer Insight & Analysisで上級リサーチアナリストを務めるアンドレア・ミノン氏は次のように話す。「Sephora、ASOS、Zaraといった多くの小売企業やNatWest(National Westminster Bank)、HSBCなどの銀行は、既にAIのメリットを実感している。来店者数と収益の増加、コスト削減、パーソナライズされたより快適な顧客体験などがその例だ」

 CPUベースのコンピュータアーキテクチャは、機械学習タスクには適さないというのが業界共通の認識だ。現状では、GPUが機械学習の実行に必要なパフォーマンスを提供している。

 だがWebを利用する大手企業はさらに高いレベルのパフォーマンスを必要とし、AIの処理を加速するカスタムアクセラレーションハードウェアを開発しつつある。Financial Timesが2019年2月に報じたFacebookの動向によると、Facebookは機械学習向けに独自チップを開発しているという。

 2016年、GoogleはTPU(Tensor Processing Unit)というASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を公開した。機械学習に特化したチップで、DNN(Deep Neural Network)深層学習フレームワーク「TensorFlow」に最適化されている。

 当時、Googleの卓越したハードウェアエンジニアだったノーマン・ジョアッピ氏は次のように述べている。「当社のデータセンターはTPUを既に1年以上運用しおり、1ワット当たりの機械学習パフォーマンスが桁違いに優れていることが分かっている。これは約7年後の未来(ムーアの法則の第三世代)の技術にほぼ匹敵する」

 TPUは「Google Cloud Platform」(GCP)で利用できる。最上位バージョンの「v2-512 Cloud TPU v2 Pod」は現在αテスト中で、使用料はPodスライス/時間当たり384ドルだ(訳注)。

訳注:Googleの「Colaboratory」で(若干制限はあるが)GPUとTPUを無料で使うことができる。Colaboratoryは不定期に仕様が変更されておりGPUやTPUの詳細も公表されていないが、2019年4月末時点のGPUは「NVIDIA Tesla T4」(nvidia-smiコマンドで確認可能)。

 ASICは特定アプリケーションの実行専用に設計する。TPUの場合はTensorFlow DNNモジュールがこれに当たる。そのため極めて高額になり、用途も限定される。「Microsoft Azure」はFPGA(Field Programmable Gate Array)を使ってアクセラレーションを提供している(訳注)。Microsoftによると、FPGAはASICに近いパフォーマンスを実現するという。

訳注:ASICは回路設計の段階で目的に最適化してチップを製造するのに対し、FPGAは論理回路をソフトウェア的に変更できる。

 「FPGAは新しいロジックの実装や再構成が可能になる。ハードウェアアクセラレーションを利用する機械学習アーキテクチャを当社は『Brainwave』と呼んでいる。これはIntelのFPGAをベースに『データサイエンティストや開発者がリアルタイムAI演算を高速化できる』ようにしている」(Microsoft談)

1/2ページ

最終更新:6/6(木) 8:00
TechTargetジャパン

こんな記事も読まれています

あなたにおすすめの記事

Yahoo!ニュースからのお知らせ