AIを配置配線に活用
Googleは、米国カリフォルニア州サンフランシスコで2020年2月16~20日に開催された「ISSCC 2020」において、機械学習(ML)を使用してIC設計で配置配線を行う実験を行ったところ、優れた成果を得られたと発表した。これは、回路設計だけでなくAI(人工知能)分野にとっても、重要な成果である。
AIはここ数年間で、エレクトロニクス業界における最重要分野となり、膨大な量の半導体研究が行われ、ベンチャーキャピタルやメディアからの注目も集めている。ISSCC 2020は主題として、「Integrated Circuits Powering the AI Era(AI時代を駆動する集積回路)」を掲げ、オープニングの本会議では、AIが半導体分野をどの程度までけん引しているのかを位置付けるための議論がなされた。
本会議ではその一例として、4人の登壇者たちが、「AIに対する要求によって、AI専用という新しい分野のチップ開発が加速している。これを受けて、構造の中のイノベーション(例:チップレット、マルチチップパッケージ、インターポーザ)が加速し、量子コンピューティングの開発にも影響が及んでいる」と説明している。
Google AIのトップを務めるJeff Dean氏は、本会議において最初に登壇し、MLの概要について最新情報を提供した。同氏はこれまで1年以上にわたり、こうした情報をさまざまな形で提示し、配置配線にMLを活用する議論の発展を目指してきた。
同氏は最初に、AIの歴史について大まかに振り返り、まずは1995年にバックギャモンのプレー方法を学習したマシンについて取り上げた。さらに、チェスや囲碁の学習を得意としていたマシンが、今や「StarCraft」などの複雑なビデオゲームをうまくこなし、目覚ましい成果を達成するまでになったことを語った。MLは現在、医療画像やロボット工学、コンピュータビジョン、自動運転車、神経科学(脳の断層写真の顕微鏡分析)、農業、気象予報など、さまざまな分野で利用されている。
これまで数十年間にわたりコンピューティング分野をけん引してきた基本的な考え方は、「問題が大きければ大きいほど、より高い処理能力を投入する。処理能力が高ければ高いほど、より大きな問題を解決することができる」というものだ。この考え方はしばらくの間、AIを使った問題解決にも適用されていた。
だが、気が遠くなるほど問題空間が膨れ上がり、それを解決できるだけの十分なCPU(またはGPU)を単純に集積することができなくなったため、この考え方は崩壊した。
AIチップは、CPU/GPUほど複雑じゃなくてよい
ところが、AIには、一般的なCPU/GPU性能が必ずしも必要ではないことが分かってきた。必要なのはシンプルな計算能力であり、精度もそれほど高くなくてよい。こうして、「AI専用プロセッサは、CPUやGPUのように複雑である必要はない」という“予期せぬ”結論に至ったのである。
このような洞察から、推論向け専用のプロセッサが開発されることになった。例えば、Googleの独自開発プロセッサ「TensorFlow」は、現在第3世代が投入されている。同社は、近いうちに第4世代のTensorFlowを発表するのではないか、ISSCC 2020で何か重大な発表を行うのではないかという期待を集めていたが、その当ては外れた。
「必ずしも高い精度が必要ではない」ことは、推論だけでなく学習向けにもいえる。これは、比較的新しい見解である。EE TimesのSally Ward-Foxton記者は、コラム「Artificial Intelligence Gets Its Own System of Numbers(AI独自のシステムナンバー)」で、この考え方について説明している。
Dean氏は、「AIプロセッサは比較的シンプルなので、(ハイエンドGPUなどに比べると)安価だ。今や、膨大な量のデータセットでも高速トレーニングを実行できるだけの性能を備えたAIプロセッサが開発されている。このため、MLをさらにネットワークエッジへと容易に進出させていくことが可能だ。その具体例として挙げられるのが、音声認識である。Googleは2019年の時点で、既にスマートフォンでも動作できるほど小型なモデルを用意していた」と述べている。
学習済みのAIを、別の分野に応用できるのか
自動運転や医療画像、囲碁などのAIアプリケーションはそれぞれ、学習専用のAIシステムを微調整して作られている。基本的に、1つのアプリケーションにつき1種類のAIを使用する。ここで、「ある分野を学習したAIを使用して、その学習内容をよく似た別のタスクに適用できるのか」という疑問が生じる。
Dean氏は、「この問題を取り上げたのは、ASIC設計で、配置配線にMLを用いることが検討され始めてきたからだ。配置配線は、囲碁よりもはるかに規模が大きい。囲碁のように明確なゴールがあるわけではないが、問題の規模が大きいのだ」と述べる。
Googleは、配置配線向けの学習モデルを作成し、ツールを使った一般化が可能かどうかを試した。1つの設計上で学習した内容を利用して、初めて目にする新しい設計に適用することができるのだろうか。その答えは、疑問の余地なく「イエス」だった。
さらにDean氏は、「これまで実験を行った全てのブロックにおいて、超人的な結果を得ることができた。少しずつ優れた成果を出しながら、時々人間をはるかに超える力を発揮する場合がある」と続ける。
この“優れた成果”の中には、配置配線を桁外れに短い時間で実行することができるという点も含まれる。エンジニアがそのタスクを達成しようとすると、何週間もの期間を要することになる。Dean氏の報告によると、MLを使った場合、同じタスクが24時間以内に完了し、しかも配線の長さが短くなったケースもあったという。さらに、自動化された配置配線ツールと比べても優れた成果を上げている(詳細は、米国EDNのこちらの記事から確認できる)。
またDean氏は、「MLの活用は、IC設計プロセスの他の部分にも拡大していくのではないか。例えば、HLS(高位合成)を向上させて、高水準記述から最適化された設計を実現することなどが考えられる」と述べる。
Dean氏は、「MLモデルは将来的に、どのようなものになるのか。1つのモデルをトレーニングして、類似したタスクに対して一般化することは可能なのだろうか。理想としては、1つのモデルで、数千~数百万個のタスクを実行することを学習できるようにしたい」と述べている。
エッジAIの加速が、新しいカテゴリーのプロセッサを生み出す
MediaTekでシニアバイスプレジデント兼CSO(最高戦略責任者)を務めるKou-Hung “Lawrence” Loh氏は、AIが現在、インターネットに接続されているほぼ全てのものをどのように変化させているのかという点を取り上げ、「AIoTは、既存の数百億台ものデバイスから急速に拡大することにより、2030年までには、約3500億台のデバイスを網羅するようになる見込みだ」と述べている。
AIは現在、エッジ方向に向かって移動している。その理由としては、エッジでのAI活用が可能になってきているからという点が一つ。また多くの場合、例えばデータセンターで増大している処理負荷を軽減したり、ネットワーク上のトラフィックを削減したりする上で、必要とされているという理由もある。さらに、一部のアプリケーションは、ローカル処理を必要とし、それによって最もうまく機能するからという点も挙げられる。
ローカル処理に求められるのは、高速化を実現すること、AI専用として設計されていること、エネルギー効率が極めて高いことなどである。
これらは本質的に、新しいカテゴリーのプロセッサだといえる。Loh氏はこれを、「APU(AI Processing Unit)」と呼ぶが、その他にも、「NPU(ニューラルプロセッシングユニット)」や、「BPU(Brain Processing Unit)」などの名前で呼ばれることもある。例えばAPUは、CPUと比べると柔軟性の面では劣るが、特定用途向けに開発されているため、約20倍の高速化を実現し、消費電力量は55分の1に低減することが可能だという。
MediaTekの研究者たちはISSCCにおいて、別の論文を発表し、7nmプロセス適用の5Gスマートフォン用SoC(System on Chip)の汎用AIアプリケーション向けに、3.4~13.3TOPS/Wを実現するデュアルコアディープラーニングアクセラレーターについて提案していたが、これは決して偶然ではない。
これは、7nmプロセスに関する論文である。ムーアの法則、プロセス技術微細化の曲線に沿って競争が進めば、少なくともあともう一歩、既存の7nmから5nmまで、性能向上を達成することが可能だ。Loh氏は、「ムーアの法則は、まだ通用する」と述べる。
しかし、注意点がないわけではない。同氏は、「トランジスタの集積数は、引き続き典型的なムーアの法則に沿って進んで行くだろう。しかし、1トランジスタ当たりのコストはムーアの法則通りにはいかない。さらに、半導体チップ設計の複雑化に伴い、処理工程もさらに複雑化して、最新デバイスのコストが急増すると、小規模メーカーはその技術を使うことができなくなる。その上、歩留まりの問題もある」と述べる。
Loh氏は、「こうしたさまざまな問題に対する共通の解決策は、ダイの分割だ。これは現実問題として、チップレット技術などの手法を採用するということを意味する。ムーアの法則よりも優れた成果を上げられるのではないだろうか」と語った。
【翻訳:田中留美、編集:EE Times Japan】
EE Times Japan
最終更新:3/5(木) 11:06
EE Times Japan































読み込み中…