5G AI企業

GPUメーカーnVIDIAと自動運転 AI運転手のトレーニングについて

f:id:ysky24:20200226231822j:plain

AIの運転が人間を超えるとささやかれる昨今、自動運転車はどのようにトレーニングをしているのでしょうか?

自動運転に必要なチップであるGPUについて

「なぜGPUメーカーであるnVIDIAが自動運転に重要なのか」

「AI運転手はどんな訓練をしているか」

「nVIDIAは要素技術にどのようにかかわっているか」

「nViDIAと自動車メーカーとの提携状況」

と、いったことが疑問点であると思います。

この記事では自動運転のシミュレーションを軸に説明していきます

nVIDIAの本業はGPU。そもそもGPUとは?

f:id:ysky24:20200226230746j:plain

GPUとは?パソコンでGPUがどのように使われているか

GPUは画像処理用の計算機で、画像出力する用の装置です。
CPUと比較して単純処理を大量にこなすことに長けています。CPUと比較してデータの転送速度が早い、並列計算能力が高いです。

高画質を安定的に表示・処理するためには、データの転送速度が重要で、GDDRやHBMのような高転送速度のメモリをつかっています。

ゲームのグラフィックスを例にとれば、
人形の素体データと服のデータと背景を別に作って重ねて処理し
手だけは素体のデータが映るが、服の下の体は映らなくし、背景も後ろに重ね、
太陽の向きで影を作り、
キラキラしたエフェクトを載せる
など、大量の対象(画面のピクセルそれぞれ)に独立に短時間で計算する必要があります。
このため、多数の演算器(NVIDIAでいえば、CUDAコアに相当)を積んで、1秒当たり24~120枚の絵を完成させています。

GPUがディープラーニングに重要な理由

f:id:ysky24:20200226230926p:plain
ニューラルネットワークでは多段の入力層(n次元行列)から1つの出力層を処理する

自動運転に限らず、ディープラーニングにはGPUが重要とされています。

前述の並列処理が得意、というGPUの特性を活かし、nVIDIAではCudaと呼ばれる並列コアで入力データを一度に処理します。

数学的には入力行列を出力行列に一度に処理できるため、ディープラーニングのモデルを高速に処理することが可能です。

CPUの並列コア数が8~32であるのに対し、GPUの並列コア数は1024~4096と桁違いに違うため、数百倍の速度で行列演算が可能となります。

自動運転で必要となる画像データは突き詰めれば行列(n次元のベクトルデータ)のためモデリングした専用チップで高速処理を行うためにはGPUが必須となります。

自動運転車AIのトレーニング

自動運転に必要な要素技術として

・レーン検知

・周辺検知(人物・車両検知)

・GPS(ルート作成と地図作成)

の3つが挙げられます。

要素技術① レーン検知

レーン検知は白線を検知し、車両がどこを走るかを検知します。

2015年くらいの白線検知は複眼カメラで差異を取って検知する仕組みでしたが、コスト削減とディープラーニング技術のブレイクスルーにより単眼カメラでの検知が主流となっています。

要素技術② 周辺検知

周辺検知ではLidar(ライダー)というミリ波レーダーを利用して、車両の裏側に歩く人も検知します。ライダーにはミラー型とミラーレス式、前方到達距離を重視した前方検知用と視野角を重視した短距離周辺検知の種類に分類されます。

日本企業は前方検知は弱く、周辺検知を中心に開発しています。

その他、画像センサー(いわゆる通常のカメラ)も利用するのですがセンサーの要素技術の開発状況については、過去記事にまとめてありますので詳しく知りたい方は見てみると良いです。

>>自動運転に必要な技術をロードマップ

要素技術③ GPS(ルート作成と地図作成)

地図作成では搭載されたチップにより

①自己位置の測定

②HDマップの更新
③地図の作成

を行います。

・自己位置の測定

NVIDIA DRIVE Mapping パートナー企業から提供される世界中の HDマップを活用します。日本ではゼンリンが主となります。

自動運転車両は、広い市場で流通するセンサーを利用して、先例のない信頼性と精度で HD マップ上での自車両の位置を特定します。

f:id:ysky24:20200226230156p:plain

・既存マップの更新

DRIVE Mapping は、道路を走る車両の認識機能を用いて、NVIDIA のパートナーの地図作成企業がクラウドベースの HD マップを更新するのに利用されます。

NVIDIA DRIVE 認識機能では、周囲の特徴と新たな目印 (道路の境界、車線、標識、電柱、信号など) を車両内で検出し、HD マップ作成プロバイダーから提供される地図との比較を行います

DRIVE MapStream によって、データはクラウドにアップロードされ、道路上に新しい特徴や変更された特徴があれば、地図の更新を行います。

f:id:ysky24:20200226230221p:plain

・地図の作成

地図更新と同様のプロセスを使用して、DRIVE Mapping は地図がない場所で新しい地図を作成できます。

NVIDIA DRIVE プラットフォームの認識ソフトウェアは、新しく地図を作成する地域内を走る車両から送られてくるセンサー データに基づいて、特徴的な目印を検出します。

そのデータが以前の走行で得られた情報と融合され、HD マップが構築されます。

このようにして新しく作成された個人的な地図は、myRoutes と呼ばれています。

f:id:ysky24:20200226230235p:plain

では、実際にどのようにAIはシミュレーションをしているのでしょうか?

天候・路面状況を配慮したシミュレーション

nVIDIAでは実車両を利用して現実世界でのシミュレーションも行っていますが、仮想空間上で我々人間をはるかに上回る運転をAIは行っています。

2台のサーバーを利用して仮想空間を作成しています。

具体的には1台目のサーバーで仮想空間を作成します。

f:id:ysky24:20200226225502p:plain

1 台目のサーバーは DRIVE Sim ソフトウェアで自動運転車に必要なカメラ、ライダーやレーダーなどのセンサーをシミュレートします。パワフルな GPU が写真のようにリアルなデータ ストリームを生成することで、さまざまなテスト環境とテスト シナリオを作成できます。これにより、暴風雨や吹雪、強烈にまぶしい日差しなど、まれにしか発生しない悪条件も簡単にテストできます。時間帯、路面、周囲の条件も変更が可能です。

2台目のサーバーでは実際の車に使用するGPUにシミュレーションデータをフィードバックさせリアルタイム処理を行っています。

f:id:ysky24:20200226225646p:plain
搭載されるDrivePX

2 台目のサーバーには、パワフルな AI 車載コンピューター DRIVE AGX Pegasus を搭載し、車両内部で動作する自動運転ソフトウェア スタック全てをバイナリ互換で実行します。まるで実際の道路を走っている車のセンサーから送られてきたようなシミュレーション データを実時間で処理します。

晴天時はもちろんのこと雨や霧、夜などの状況を仮想空間上に再現しシミュレーションを行っています。

そのシミュレーションは数10億キロ超えるとnVIDIAは言っています。

どのように道路を走るのか、をまとめた動画がありますのでご覧ください。


NVIDIA DRIVE Sim

自動運転車のチップと自動車メーカーの提携状況

日本車では日立AICの自動ブレーキ(アイサイト)が主流です。

アイサイトは複眼カメラによる距離認知を行っているのに対し、イスラエル企業であるモービルアイは単眼カメラによる認識を行っています。そのためコスト差からモービルアイを採用する企業は増えています。

追従するのはシリコンバレーに代表される企業群となります。

各種チップメーカーと自動車メーカーとの提携

では、実際の車メーカーとの提携はどのようなものでしょうか?

各種チップメーカーとの協業を簡単にまとめると下記のメーカーが挙げられます。

nVIDIA→トヨタ、VW、アウディ、ボルボ、テスラ、他
Intel→BMW
Mobileye→日産、Bosch、ZF、他
Waymo(Google傘下)→ホンダ
Bosch→ダイムラー

すなわちnVIDIAでは車両販売1位、2位の自動車メーカーと提携しており

2020年以降の自動運転車の普及に際し爆発的な成長が見込めます。

まとめ

いかがでしたでしょうか。

今回の記事をまとめると

・nVIDIAのGPUはディープラーニングに必須

・レーン検知、周辺検知、GPSにてソリューションを持っている

・数十億キロのシミュレーションをnVIDIAではおこなっている

・車両生産のトヨタ、VW(1位・2位)と提携を行っている。

ということになり、今後のnVIDIAは爆発的に収益が伸びると想定されます。

今年からの決算は非常に興味深いものです。

にほんブログ村 投資ブログ 投資情報へ
にほんブログ村

-5G, AI企業

Copyright© 熊猫のノート , 2020 All Rights Reserved Powered by AFFINGER5.