新着Pick
515Picks
Pick に失敗しました

人気 Picker
ソニーに車載半導体の話を聞きに行ってきました。自動運転を実現する上でも、かなめになるのが「見る」という機能。話を聞きながら、ひとくちに「見る」といってもなかなか複雑だなと痛感しました。日本製の「目」で自動運転車を実現できるか。これからが楽しみです。
ソニーのイメージセンサーについて、歴史と、そして期待される車載分野について丁寧な説明があるインタビュー。

歴史については、記事からも伺えるように70年代から開発をしていた。それをやり続けたのが盛田氏の次に社長となった岩間氏。①に詳しいが、アメリカのベル研で発明されたCCDに未来を見つけた。そして競争相手も電機メーカーではなくフィルムのコダックと、明確に「広い意味での競合」を捉えられていた(②)、そして歴史はそうなった。ちなみに岩間氏の墓石にはCCDが張り付けられている。
そして、CCDで先行したにも関わらず、CMOSにシフトできたこともポイント。ここは2000年代前半に他社に供給していたCCDセンサーでリコールが発生したことも遠因としてはあったと思う(もちろん、そのなかでも双方のメリット・デメリットを理解してずっと研究開発をしていたからシフトできた側面はあったと思う)。

そして、車載。車載イメージセンサーの記事をこれまでもPickしてきたが、普通のカメラ・スマホ向けとは違う。
色については考えたことがなかったが、記事を読んで確かにと思った。昼だろうが夜だろうが見える、LEDが信号やテールランプに使われる中でちゃんと認識できる、もちろん温度や雨、逆光などの環境影響に常時かつ長期間耐えられることも重要。このあたりに興味ある方は③もご参照いただきたい。ソニーの車載への長期間の取り組みは、④でまとめた。
そのなかで記事からも伺えるのは、イメージセンサーは重要な一方で、イメージセンサーだけではだめなこと。複数のセンサーを使うということは、それらを合成・処理して制御をすることも必要になる。ここはソフト・アルゴリズムの世界、そしてそれに強い半導体の世界。自動車メーカーもセンサーメーカーも電子部品でも制御に強いメーカーも狙っている領域だろうし、そこを巡る争いがどうなるか。取れれば付加価値が大きいし、一方で取ることに拘ると採用や連携がうまくいかないリスクもある。

http://www.shmj.or.jp/dev_story/pdf/develop71.pdf
https://newspicks.com/news/4140371
https://newspicks.com/news/2861059
https://newspicks.com/news/4016761
CCD(Charge-Coupled Device)の発明は1969年。CCDの発明者Willard BoyleとGeorge. E. Smithは、2009年度ノーベル物理学賞を受賞しています。

CCDイメージセンサ
https://ja.wikipedia.org/wiki/CCDイメージセンサ


CMOSイメージセンサは1968年に発表論文があります。

P. J. W. Noble, "Self-scanned silicon image detector arrays," in IEEE Transactions on Electron Devices, vol. 15, no. 4, pp. 202-209, April 1968.


なぜCCDのほうが実用化が早かったかというと、画像情報(電荷)の伝送が精度良くでき、きれいな画像がとれたことが大きいから。
一方、CMOSに取って代わられた原因ですが、CMOSイメージャーは一般的なCMOSのプロセスで作ることができて製造コストが安いことと、CCDのような高電圧が必要ないことが大きいです。また、CCDと比べてノイズが乗りやすいという欠点がありますが、演算処理によって取り除く技術も成熟してきました。

性能は上がってきていますが、自動運転などに用いる場合の最大の問題はダイナミックレンジ(感度の幅)かと。人間は暗いトンネルの中から明るい外を見たりできるし、夜間の走行もOKですが、センサにとってはこれが難しいのです。
1996年ごろから課レベルで開発が進められていたのが、「CMOSイメージセンサー」です。
最初は、CMOSはCCDに勝てないだろうと思われていました。
CCDほど画質が良くなかったからです。そのため、カムコーダーやデジタルスチールカメラのような、画質が強く要求される分野には使えなかった。
そんな中で参入ハードルが低かったのが、画質が粗くても許された携帯電話用のカメラです。
CMOSイメージセンサーは、低消費電力で高速というメリットがありました。これは、複雑な回路を入れられない携帯電話と相性がよかった。
そんなわけで、最初はあまり期待されていなかったCMOSイメージセンサーですが、ソニーは他社に先駆けて技術革新を進めていきました。
信号機のフリッカー防止については、カメラを持ってるソニーには簡単そうですね。交流電源の照明は電源周波数の2倍程度の周期で明滅を繰り返すのですが、これとカメラのフレームレートが同期してしまうと、全く映らないケースが出てきます。ドライブレコーダーなどでも同じ現象が起きる訳ですが、記録フレームレートをLEDの明滅とは異なる値に設定することで対策されているようです。これも多分そんな感じなのではないかと。

「車の目」というと最終的には自動運転的な話になるのでしょうけども、走行時の周辺環境を人が有視界で判断しないといけない状態は当分続くと思うので、サイドミラーやバックモニターなどの暗所視界が改善するだけでも個人的にはかなり助かります。
今のサイドミラー、夜はほとんど使えません。後続車のライトは当然見えていますが、点光源なので距離感や相対速度が分かりにくいんですよね。
夜間の高速道路などほんと怖いので、視力(というか夜目)UPには大いに期待しています。

(デジカメの方も期待 ←小声)
ヒトの運動速度と反応速度では、イメージセンサー(目)だけでokなのでしょうが、クルマはずっと速いわりに反応速後は同程度 (路面を含むシステム的にはそれ以下) なので、自分からプローブを飛ばして測るタイプのロングレンジセンサを使うのが主流になったんでしょうねぇ ただ、ヒトの運転者は、立体視ではありますが、電波やレーザー飛ばして測っている訳ではないので、ヒトの運転も走れる道路を走る自動運転車では、イメージセンサと判断AIの性能向上に伴い、プローブタイプのセンサとの境界は薄くなって行くとおもいますねぇ

あ、個人的には、自動運転は、専用道路・レーンのみでの運用 (またはそれに近い一般道路での超低速運用) が当分の間続くと思っていますけどねぇ
センシング技術のひとつ、自動運転車の「目」がわかりやすく解説されています。目の役割を果たすためには、イメージセンサーとともに、レーダーやLiDARが必要とのこと。

最新の車にはこれらが装着されていますが、その機能がよくわかります。お互いに補完しあえばいいのですが、メーカーとしての垣根を超えた協業はまだ進んでいないようです。トータルに「目」の機能を提供できるところが強くなるでしょうね。さらに、センシング情報をAIで瞬時に加工し予測できる技術も。

自動運転車は走るロボット。最終的には、目で見たことを車体全体に伝え、即応することが求められています。安全を担保するには、相当な覚悟が必要ですね。
CMOSセンサーが携帯電話から伸びてきた歴史など、多くの人にとって、面白いインタビューです。イメージセンサー、レーダー、LiDARの違いも興味深いですね。

この記者の質問のように、この3つは、得意・不得意がある訳ですから、そのハイブリッドにしたら、もっと強力なシステムが出来そうな気がしますし、デバイスメーカーでは無く、モジュールメーカーは既に取り組んでいるのでは?どこかを買収するなど、柔軟に考えても良いような気もします。

いずれにしても、オンセミ、オムニビジョンに大きく遅れている車載イメージセンサーは、ヘッドハントした大村さんなどの知見を活かし、早く追い付き、「安全」をリードしていって欲しいですね。


引用〉──イメージセンサーのメーカーと、レーダーやLiDARのメーカーが協力した方が、効率良いのでは。

みんな仲良く協力できたらきっと良いのでしょうが、そう簡単にはいきません。
最近のイノベーションに共通している特性かも。IoTしかりAIしかり「「未来のクルマのあり方」自体がまだ定まっていないので、製品への要求がどんどん変化するのが難しいところです。」
あっちゃんのNEXTのSONYの回のあとにこういう深掘り記事を出してくれると、非常に理解が深まって有意義ですね。