新着Pick
585Picks
シェアする
Pick に失敗しました

選択しているユーザー
米国ニュースサイトによるとフリーウェイ前方にトレーラーが直交する形で道を遮っていたという。これがどういう状況か良く分からないのだが、テスラはこれをドライバーが運転していても避けられない事故だったと言っている。

もともとこれは自動運転(Autopilot)Public Betaであり、ドライバーはハンドルから手を離さず、常に車の制御可能な状態にあることを要求されている。いわば、普通の車にあるクルーズコントロールの進化版なのだ。他の高級車にも搭載され始めている、いわゆる半自動運転という位置付けだ。

しかしながら、実際に助手席に乗せて貰った経験から言うと、あまりに出来が良過ぎて、ベータである事も半自動運転であることも忘れてしまう。

その意味では、UX設計の失敗例なのかも知れない。

この事故調査の持つ意味は大きい。テスラにとっても、他自動運転を計画中のベンダーにとっても、そして我々全員にとっても。
人気 Picker
さあ、始まった。筆者が今年1月、Newspicks用の記事でも書いたように、「モデルS」が自動運転モードと呼んでいるシロモノでは、車両後方に対するスキャニングが「甘い」。一般的な自動車OEMでは、ミリ波レーダーによって、20m~30m程度の斜め後方の動きを確認しているが、「モデルS」では、駐車用を主体な利用目的とする赤外線センサーが2~3m程度でしか、後方車両を認知できない。これで、自動車線変更するのだから、「肝っ玉が大きい」。Teslaは顧客に対して、「目視してから、自動車線変更を使うこと」と「利用に対する注意」をしている。だが、筆者が実車に乗った感覚では、慣れてくると、目視確認しない人が増えてくる可能性は高いと思う。
NHTSAによる詳細な事故報告を待ちたい。
追記:
英語記事を読んだところ、事故が起こったのは高速道路(フリーウェイ)では無くハイウエイ。80-100Kmで走行できる一般道と想定される。運転支援を用いる場合、運転手の常時監視は当たり前で、厳重な注意が必要な状況である。緊急ブレーキが作動しなかったのは非常に不幸な条件が重なったと思われるが、運転手の前方不注意が事故原因の大きな要素と推察される。運転支援を受けて、運転者の注意力が低下していた可能性がある。ともかく、Level1-2の運転支援を自動運転と名称するのは誤解を避けるためにもやめるべきではないか。

以下原文:
こういった事故は想定内の出来事だと考える。2トン近くの物体が時速100キロで移動するクルマは、一歩間違えば殺傷能力を持った凶器に化ける。これは、F1レーサーがハンドルを握っていても、完璧な自動走行システムが操舵していても同じこと。インターネット・ガジェットのような劇的な進化を目指しても、変わりたくても簡単に生まれ変われないのがクルマの特性と考えるべきだろう。
Model Sのパイロットシステムはあくまでもレベル1の出口に過ぎない。正しい知識を持ち、適切に運用しなければ事故は起こりうる。安全か、そうでないかの論議は不毛ではないか。
社会や国民のリスクへ許容度で自動走行システムの普及速度に相違が生まれるだろう。リスク許容度は、日本は非常に低く、米国は比較的高い。こういった困難を乗り越えながらも、米国では着実に自動走行技術は進化を遂げる公算が高いだろう。
感想:このような事故は想定していましたが、まだ完全な自動運転ではないので、法的にはドライバーの責任です。現行システムではレベル1〜2の範囲なので、ドライバー・アシスト・システムの範囲を超えていません。メーカーが自動運転と過大評価したPRがユーザーのミスユースに繋がる可能性は関係者の間で心配していたことです。モデルSのセンサーシステムはロバスト性があまり高くないので過信は禁物です。

提言:今後このような事故を詳しく調査分析することで自動運転技術を正しく進化させることが可能となるので、レベル2以上の自動運転車はドライブレコーター(EDR)で映像やセンサー情報などを残すシステムを義務化するといいでしょう。航空機のフライトレコーダーと同じです。日米欧の政府関係者に提案です。
「運転が簡単になっていった時に、どうやってドライバーの注意を運転に向けさせるか、実は凄く難しいんです」。トヨタの技術者の方から伺った話です。

自動運転は、当面はドライバーアシストですから、結局は一人一人が段々と慣れてゆくしか無いんですよね。私のレクサスRX450、6年前に買ったのにも簡単なアシストは付いていて、それだけでも運転ラクですからね、特に高速で。
中央分離帯のある高速道路で、走行中の車の前方を直角に横断するトレーラーがあった。当日は天候がよくトレーラーの白色が反射したことと、トレーラーの高い車高で、自動運転装置がトレーラーを認識できなかったことから、ブレーキが作動せず、車がトレーラーの下にもぐり込んだ。前面ガラスが大破し、乗員は死亡した。

テスラは、自動運転中であっても安全は、あくまでも運転者の責任であって、常時ハンドルに手をおいておかなければならないとコメントした。

NHTSAがどういう判断を下すか注目される。
下記がTeslaの公式声明。四方さんが書かれている内容に加えて、これまでTeslaでは1.3億マイル自動運転され、米国では0.94億マイルごと、世界的には0.6億マイルごとに死亡事故が発生しているという事実も付け加えられている。
Teslaの言い分も分からなくもないが、ただ、この時点でのコーポレートコミュニケーションとしてはアピールより事故自体の事実説明にとどめるほうが良かったのではと、個人的には思う。
なお、アフターマーケットで株価は-2.49%下がっている。
https://www.teslamotors.com/jp/blog/tragic-loss?redirect=no
ついに怖れてたことが起きてしまいましたね。自動車業界でもTeslaの自動運転はまだまだ世にリリースするには技術が成熟していないと言われていましたが…このせいで自動運転への流れが遅延してしまう可能性がある

(追記)
TeslaはあくまでAssist機能だと言っている。ならばAutopilotという機能名を使うのをやめろ。
背景としてですが、基本的にLevel3までは、ドライバが運転に備えた状態でいる必要があります。なお、NHTSAの定義では、Level2において、常に運転制御を再開できる状況を維持しながらであれば、ハンドル手離し、ペダルからの足離しなどが許容されています。
http://www8.cao.go.jp/cstp/gaiyo/sip/iinkai/jidousoukou_5/5_jidousoukou_siryou_9-1-2.pdf
別記事コメントを転記
やはり。あれだけの誇大宣伝をしていれば、いつかはこうなることがわかっていた。
 これが発生しないように、発生しないように、入念に準備するのがいいのか、これが発生することを半ば織り込んだ上で、しかし史上初を狙うのか、極めて難しい経営の意思決定。
 しかし、訴訟社会アメリカに対して万全のテスラは、本件もあくまで使用者の責任の範疇とするだろうし、実際そうなるのだろう。しかし、システムを信じて死んだ人が、それで浮かばれるかは別の話なのではないだろうか。

追記:
テスラのステートメント
https://www.teslamotors.com/blog/tragic-loss

誰も読んでいない文章を、ちゃんと読んでね、と書いてある。
「It is important to note that Tesla disables Autopilot by default and requires explicit acknowledgement that the system is new technology and still in a public beta phase before it can be enabled. When drivers activate Autopilot, the acknowledgment box explains, among other things, that Autopilot “is an assist feature that requires you to keep your hands on the steering wheel at all times," and that "you need to maintain control and responsibility for your vehicle” while using it. Additionally, every time that Autopilot is engaged, the car reminds the driver to “Always keep your hands on the wheel. Be prepared to take over at any time.” 」
時価総額
4.95 兆円

業績