AI自動運転「センサーはカメラだけ」…Mobileyeの衝撃動画、CES 2020で公開
コメント
注目のコメント
画像処理をやっている身としては、どちらか一択という議論ではなく相補的に用いるのがいいと思っています。
将来改善されるとは思いますが、現状ではこんなところが難しいと認識しています。
・カメラのダイナミックレンジ。人間の目に比べて数10dBレンジが狭い、すなわち見えない。特に夜間の運転やトンネルの出入り口等をどうするのか。赤外線カメラがあると思われるかもしれませんが、赤外線照明がそんなに届かない。
・映像の処理コスト。いまはだいたい映像1ストリームに対してGPU1枚。頑張ってもGPU1枚あたり2映像くらいだと思うと、何枚のGPUが車載に必要?コストの問題のほかにそもそも、車はそんな電力持ってない。
・「見かけ」は騙される。1つのモダリティに頼ってしまうと、誤動作したときにどうしようもない。それよりも複数のモダリティで判断して合議制にするほうが精度は高くなる。航空機では計算システムも多重化されていて単一で決定をくださないようになっているのは有名な話。以下、自動運転のLidarとCameraの違いがよくまとめられている記事。
https://www.autopilotreview.com/lidar-vs-cameras-self-driving-cars/
将来的に、商用がLidarで、マイカーはCameraになるかも。
テスラはカメラ(8つ)とAIで実用性高いレベル2まできた
Lidarの問題:
①コスト
②文字読めない(ストップサインなど)
③霧や雪で使えない
④デザインよくない
カメラ派:テスラ、モービルアイ(インテル)、Wayve (UK)
Lidar派:その他ほぼ全部(グーグルも含め)
Lidar派は、AIがここまで発達すると予測していなかったので、Lidarに投資したが間違っていたら大問題。そろそろ業界の人は気づき始めている(やばい事をやってしまったかも)。これは私の印象ですが,センサーはすでに自動運転に不可欠な領域にまで到達している気がする.あとは処理系の問題ではないかと.カメラの場合,カメラの種類にもよるが,環境の光量が問題.それも処理系の問題と言えなくもないが.少なくとも,今のセンサ技術で人並みの運転はできるはずと思う.さらにそこより安全性を高めるためには,街頭センサとの連携,またV2Xコネクションが必要だと思う.