新着Pick
6Picks
Pick に失敗しました

人気 Picker
鈴木さん、コレ↓によるとボルボの緊急停止システムはウーバー側により無効に設定してあったようです それをオーバーライドするウーバー内製緊急停止システムは、その作動までに1秒(!!)待つ設定になっていたということもかいてあります

コンナンデイインデスカ?

ホントウニ、コンナンデイインデスカ?

https://www.azcentral.com/story/money/business/tech/2019/11/19/driver-fatal-arizona-uber-crash-mostly-blame-ntsb-report-finds/4232936002/

"Still, many things went wrong, the NTSB found. Among them were Uber's failure to program its cars to predict the movement of people jaywalking, and the company's decisions to turn off the standard Volvo emergency brakes and to require their own system to pause a full second before emergency braking."
全く何も言ってないに等しい記事。

こんなのは最初からわかってること。

どういう体制でテストしたのか?
どうテストが管理されていたのか。
ドライバーはどういう責任が課されていたのか?
ボルボの安全サポート機能が動作してないのは何故か?
そしてその条件で誰が運行を許可したのか?

何一つわからない。

そして公道テスト再開。

どう言うことなのか。
誰か説明してください。

Saitouセンセ
ありがとうございます。
実は先日鈴木万治さんが「このシチュエーションなら自動ブレーキで回避できた。なぜ切ったのか。」とコメントされていたので知ってました。
(ボルボはデンソーとの絡みが多いですから間違い無いだろうと共に、ご本人もコメントせずには居られなかった事でしょう)

やれAIならトロッコ問題をどう判断するか、なんて話が出たりしますが、そんな夢の話は100年早い。
システムを設計するのは人間です。
その人間の考慮が及ばない、又は軽視する部分はその通りの結果になります。

ボーイング737MAXの件もそうですが、
人命がビジネスと比較し軽視されている様に見えるのが非常に残念です。