• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

Uber自動運転車の死亡事故、原因は「運転手の不注意」と「不十分な安全文化」

12
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • U of Michigan 教授 (機械工学), 副学科長

    鈴木さん、コレ↓によるとボルボの緊急停止システムはウーバー側により無効に設定してあったようです それをオーバーライドするウーバー内製緊急停止システムは、その作動までに1秒(!!)待つ設定になっていたということもかいてあります

    コンナンデイインデスカ?

    ホントウニ、コンナンデイインデスカ?

    https://www.azcentral.com/story/money/business/tech/2019/11/19/driver-fatal-arizona-uber-crash-mostly-blame-ntsb-report-finds/4232936002/

    "Still, many things went wrong, the NTSB found. Among them were Uber's failure to program its cars to predict the movement of people jaywalking, and the company's decisions to turn off the standard Volvo emergency brakes and to require their own system to pause a full second before emergency braking."


  • ŌGIRI☆倶楽部 見習い/ BtoB企業 製品担当課長

    全く何も言ってないに等しい記事。

    こんなのは最初からわかってること。

    どういう体制でテストしたのか?
    どうテストが管理されていたのか。
    ドライバーはどういう責任が課されていたのか?
    ボルボの安全サポート機能が動作してないのは何故か?
    そしてその条件で誰が運行を許可したのか?

    何一つわからない。

    そして公道テスト再開。

    どう言うことなのか。
    誰か説明してください。

    Saitouセンセ
    ありがとうございます。
    実は先日鈴木万治さんが「このシチュエーションなら自動ブレーキで回避できた。なぜ切ったのか。」とコメントされていたので知ってました。
    (ボルボはデンソーとの絡みが多いですから間違い無いだろうと共に、ご本人もコメントせずには居られなかった事でしょう)

    やれAIならトロッコ問題をどう判断するか、なんて話が出たりしますが、そんな夢の話は100年早い。
    システムを設計するのは人間です。
    その人間の考慮が及ばない、又は軽視する部分はその通りの結果になります。

    ボーイング737MAXの件もそうですが、
    人命がビジネスと比較し軽視されている様に見えるのが非常に残念です。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか