新着Pick
71Picks
シェアする
Pick
Pick に失敗しました

人気 Picker
うーん、確かに学習過程がブラックボックス化されているので(というよりルールベースじゃないからこそ優秀だし夢が広がっているわけですが)、何かうまくいかなかったときにその原因を特定するということは非常に難しいと思います。
「こういう理由でうまくいかなかったんじゃないか。じゃあこういうチューニングをしてみよう」みたいなアバウトな対策を取って試行錯誤することになります。

現実的なラインとしては、一言に「自動運転」と言っても一般物体認識、認識した物体の動作の予測など、タスクをなるべく単純なレベルで切り分けてそれぞれ機械学習にかけ、単体テスト・結合テストをどんどん充実させて抜け漏れが生じないようにしていく感じですかね。

しかし100%にほぼ近い制度が求められるとなると途端に難度が上がります。多少の失敗が許容される領域の方がフィットはしやすいでしょうね。
これが人の命,安全にかかわる時,大問題となる.例えば,自動運転車が事故を起こしたとする.原因究明のため,自動運転アルゴリズムが成長するように変化するものであるならば,その状態でFixしておかないといけない.そして,その自動運転アルゴリズムが何をどう判断してそうなったのか,全てを追えなければいけない.それはカオスかもしれない.
VLSI不具合チェックのための自動生成テストパターンのようなものを共進化させるのですかねぇ CNNだとニューロン発火パターンが局所的なので "neurosurgery" もできるかもですねぇ
技術の問題はさらなる技術の進化で解決するしかないようですね。