新着Pick
212Picks
Pick に失敗しました

人気 Picker
この記事では、詳細が全くわかりませんので、英語記事ですが、以下を読まれることをお勧めします。

Auto Pilotと通常のクルーズ・コントロールの物体認識についての調査ですね。

Tesla Autopilot is being investigated by NHTSA over 11 crashes involving first responder vehicles
https://electrek.co/2021/08/16/tesla-autopilot-investigated-nhtsa-over-11-crashes-first-responder-vehicles/

(以下、上記記事中から引用し機械翻訳)
いずれの場合も、連邦政府機関はオートパイロットが従事していたと述べています。

ほとんどの事件は暗くなってから発生し、遭遇した衝突シーンには、ファーストレスポンダーの車両ライト、フレア、照らされた矢板、ロードコーンなどのシーン制御手段が含まれていました。関係する対象車両はすべて、衝突への接近中にオートパイロットまたは交通認識クルーズコントロールのいずれかに従事していたことが確認されました。
(中略)
調査は、2014年から現在までのモデルS、モデルX、モデル3、モデルYを含む、オートパイロットの任意のバージョンを搭載したすべてのテスラモデルを対象としています。

NHTSAはその調査において、「オートパイロット操作中の動的運転タスクへのドライバーの関与を監視、支援、および実施するために使用される技術と方法を評価します」。

さらに、同庁は、「オートパイロットモードに従事しているときの車両によるOEDR、およびオートパイロットモードが機能しているODDも評価する」と述べています。

※個人的な見解であり、所属する会社、組織とは全く関係ありません
名称の問題、それもあってのユーザに対する誤った利用の防止策不足、システムの不備または不十分、等々もう議論は出尽くしているかと。少なくともオートパイロットという名称を行政が強制変更させるくらいはなぜすぐやらないのか疑問。
NHTSA(DOT)の連邦基準に合致してなければリコール。 合致しててもPL訴訟で陪審員がどう判断するのか?
せいぜい、AutopilotとFSD(Full Self Drive)と言う機能名の使用禁止になるだけでは?

だって、テスラは「コレらはあくまで運転補助装置」と言うスタンスですから、当局に対しては。
逆にすごいなと思ったのは、76.5万台出荷してオートパイロット起因の事故が11件ということは、0.00000014%の事故率になることです。
私もそうですが、テスラユーザーは下道でも、走行の4割ほどは日常的にオートパイロットを使います。昔の馬車のようなもので、判断が苦手な部分は人間が補正する感覚に近いと思います。

「人間+AI」と「人間」の運転で比較すると、日本の例ですが、三井住友海上の統計によると1万台あたりの事故件数は約600件なので、76.5万台あたり、600×76.5で45900件ということになります。

普通の車を人間が運転した方が格段に事故率は高くなるので、むしろ今回のオートパイロットの調査は入念に行い、事故のない社会を作るための開発に活かして欲しいと思います。

ただ、オートパイロットのAIは定期的にバージョンアップが行われ常に更新されているので、数年前の調査をしたところで、すでにそのAIは書き変わっているとは思いますが...
18年以降11件の衝突事故の方はもちろん検証しているかと思いますが、それでもテスラ側に問題がある可能性が高いということでしょうか。
日本でもテスラ車をチラホラ見るようになっていることからも気になるニュースですね。
ここまで泳がしたアメリカ当局に乾杯ですかね、日本なら一件事故があっただけでストップかけてイノベーションが進まなかったでしょうから
特定の状況を意図的に、合法的に作り出せるなら、そこら中で事故を起こせるかもしれない。
相手は人ではなくAIなので、全てを同じ挙動に誘導出来そうなのは怖いと思う。
セキュリティと同じで、絶え間ない改善が求められていくのかな。
ネーミングが間違いを助長していると思います。