自動運転車の事故、誰が責任を取るのか?
コメント
注目のコメント
「例えば、ロボットがドラえもんみたいに反応したら、後ろで一生懸命苦労した人間に拍手して楽しむ。そういう感覚がAIに対するリテラシーです。」こういう感覚が常識になっていくことが、AIやロボットの普及には必要だと考えます。
まさに矢野さんがおっしゃられている「If~Then~Elseから目的関数ベースにスタイルが変わる」というところが、この問題に与える影響が気になります。
If~Then~Else関数によるモデルの場合、極論すると、ある特徴量に対してどのような判断をするかを人間が全部プログラムしていると言えると思います。
これに対して、ディープラーニングなどの目的関数によるモデルの場合は、「こういう目的を達成しなさい、その過程は機械に任せますよ」というプログラムだと理解します。そして、その「目的」がある程度抽象化されたもの(例えば、画像が猫であるかの判断をするとか、ブロック崩しで高得点を取るとか)であっても、当該目的を達成する最適手段・最短手段を、報酬に基づく強化学習により、機械が勝手に学習できるようになったという点にブレイクスルーがあるのだと理解しています。
但し、ここで目的の達成のための手段の生成のために、報酬に基づく強化学習という構造を取る以上、そこには常に一定の誤謬の可能性が存在すると理解しています。そして、問題はその誤謬が(人が直接書き込んだものではなく)機械が自律的に学習して導き出したアルゴリズムの中に存在することだと思います。例えば、画像認識を100%の精度で行うことは原理上不可能と思われますが、その画像認識の間違いの責任を、開発者たる人間に全て寄せていいのかという点を考える必要があるだろうということです。特に今後さらに「目的」の抽象化が進んだ場合に問題点が先鋭化してくるように思います。
もちろん人間も画像認識を100%の精度で行うことは無理です。そこで、そういう場合に備えて、法律の世界では、過失責任というある種のフィクショナルな概念で責任分担を行っています。また、現在でもフィクショナルな法主体である法人について、過失責任や刑事責任が認められています。自らが学習する主体である人工知能についても、似たような議論が必要になってくるのではないかという点が気になっています。トロッコ問題は人間の条件反射ではどうせ適応できないので放置で良かったが、自動運転の登場で初めて真剣に考える必要が出てきたとのこと。この視点は重要ですね、
しかし、AIには人格などないと今回もバッサリ。平野氏とAI信奉者との対談を読みたくなってきました。