ここから本文です

【GTC Japan 2016】NVIDIA日本人技術顧問、自社の自動運転フォーマットを解説

レスポンス 10/7(金) 13:45配信

10月5日に開催されたGPU開発者向けカンファレンス「GTC Japan 2016」にて、NVIDIAで技術顧問を務める馬路徹氏による自動運転用ハードウェア&ソフトウェアを解説するセッション「次世代高速道路自動運転用Autopilot」が行われた。

[関連写真]

馬路氏はまず、NVIDIAが開発した車載スーパーコンピューターモジュール「Drive PX 2」と開発ツール「Driveworks」を紹介。従来の「Drive PX 2」はPascal世代GPUを2基積んでいる超高性能なSoCであるが、オートクルーズ用途で活用できるシングルプロセッサの小型省電力版を北京のGPUカンファレンスで9月に発表している。この小型版「Drive PX 2」は機能縮小版ではあるももの、将来的に自動運転を賄えるSoCをこのサイズまで落とし込めるというアピールでもある。「GTC Japan 2016」で改めて発表された次世代GPUアーキテクチャのAIモジュール「XAVIER」だが、こちらも同じ側面を持っている。

「NVIDIA Driveworks」は、「DriveNet」「OpenroadNet」「Localization」で構成されている。「DriveNet」は周辺環境を3Dオブジェクトとして検出、「OpenroadNet」は最も安全な「道」となるフリースペースの検出、「Localization」はそれらの結果とHDマップを関連付け、自分がどこにいるかを判断するモジュールとなる。使用される車載カメラは6つ。左右に60度の視野をカバーする35ミリカメラレンズ相当の高性能なものを配置他4か所に100度の視野を確保できるカメラを搭載し、全方位をカバーする。それぞれのカメラは2.3メガピクセルの解像度を持つ。このカメラは、「Driveworks」上で走行中の車のサイドとバックを認識し、3次元でとらえることができる。

静的な物体の位置などをポリゴンで再現しているため、周りの環境がどう変化していくかを予測できる。これらの予測や実際の状況のデータはデータセンターへと送られ、予測結果と現実がどれだけ乖離していたかの検証が人の手によって行われる。その検証結果もニューラルネットワーク上に蓄積され、さらに制度の高いAIへとなっていくのである。車の進行ルートは、人間が運転する車の動きの予測、車の力学などが考慮され、最も安全なルートを決定する。

自動運転車に乗っている搭乗者への配慮として、車がどのように周辺を検知し、どのように走ろうとしているのかを「Driveworks Alpha 1」OS上でビジュアル化する。スクリーンに映される映像は、周辺環境の把握を優先させるためタコメーターの情報は取り除かれているが、搭乗者がハンドルを握ると表示される。

これまで海外の開発者向けには発表されてきていたNVIDIAの自動運転プラットフォームであるが、改めて「GTC Jaoan 2016」で日本向けにアナウンスすることで、国内企業に広くアピールできたのではないだろうか。

《レスポンス 佐藤大介》

最終更新:10/7(金) 13:45

レスポンス