新着Pick
NewsPicks編集部

この記事は有料会員限定の記事となります。

184Picks
シェアする
Pick
Pick に失敗しました

人気 Picker
「例えば、ロボットがドラえもんみたいに反応したら、後ろで一生懸命苦労した人間に拍手して楽しむ。そういう感覚がAIに対するリテラシーです。」こういう感覚が常識になっていくことが、AIやロボットの普及には必要だと考えます。
まさに矢野さんがおっしゃられている「If~Then~Elseから目的関数ベースにスタイルが変わる」というところが、この問題に与える影響が気になります。

If~Then~Else関数によるモデルの場合、極論すると、ある特徴量に対してどのような判断をするかを人間が全部プログラムしていると言えると思います。

これに対して、ディープラーニングなどの目的関数によるモデルの場合は、「こういう目的を達成しなさい、その過程は機械に任せますよ」というプログラムだと理解します。そして、その「目的」がある程度抽象化されたもの(例えば、画像が猫であるかの判断をするとか、ブロック崩しで高得点を取るとか)であっても、当該目的を達成する最適手段・最短手段を、報酬に基づく強化学習により、機械が勝手に学習できるようになったという点にブレイクスルーがあるのだと理解しています。

但し、ここで目的の達成のための手段の生成のために、報酬に基づく強化学習という構造を取る以上、そこには常に一定の誤謬の可能性が存在すると理解しています。そして、問題はその誤謬が(人が直接書き込んだものではなく)機械が自律的に学習して導き出したアルゴリズムの中に存在することだと思います。例えば、画像認識を100%の精度で行うことは原理上不可能と思われますが、その画像認識の間違いの責任を、開発者たる人間に全て寄せていいのかという点を考える必要があるだろうということです。特に今後さらに「目的」の抽象化が進んだ場合に問題点が先鋭化してくるように思います。

もちろん人間も画像認識を100%の精度で行うことは無理です。そこで、そういう場合に備えて、法律の世界では、過失責任というある種のフィクショナルな概念で責任分担を行っています。また、現在でもフィクショナルな法主体である法人について、過失責任や刑事責任が認められています。自らが学習する主体である人工知能についても、似たような議論が必要になってくるのではないかという点が気になっています。
トロッコ問題は人間の条件反射ではどうせ適応できないので放置で良かったが、自動運転の登場で初めて真剣に考える必要が出てきたとのこと。この視点は重要ですね、
しかし、AIには人格などないと今回もバッサリ。平野氏とAI信奉者との対談を読みたくなってきました。
基本的に責任は利益享受者が少しずつ均等に負担するのが合理的です。自動運転の利益享受者とは、渋滞の解消や交通事故の減少や免許が不用になる点などから考えると車に乗る人全員となります。なので従来の民間自動車保険に集まる保険料を自動運転保険にシフトしていけば良いと思います。もちろん自動運転技術を一定水準以上に保つための法整備は大前提ですが。
個人的には、社会的コンセンサスに頼るのではなく、ルールが必要なのだと思う。言うなれば、銃や自動車に近い。自動車が事故を起こしても、それは操作者責任と製造者責任に分かれる。製造者責任は、単純化すると2種類あり、正常な動作を担保すること(ブレーキを踏んだらちゃんと動く)と異常な動作を一定防ぐこと(ベルトを締めていなかったらそれを警告すること)を担保すること。銃に関して合法化されている国でも、暴発すれば製造者責任だが、それが適切な場面で使われたのかは法制度で判断される。
ただ、どう動作するかというのが、インプットがあるうえで、目的関数を最大化するように変化する。その際の拘束条件の設定までが「正常な動作の担保」に含まれる。これまでとの違いは、人間が主として操作し、その人間がコモンセンスをもっていたり、柔軟に処理できるので明確な例外処理を規定してそれを法律・機械で止めればよかった。それが機械が主として操作する場合、コモンセンスを持っていなかったり(もしくはインプットの影響を大きく受ける)、柔軟な処理が簡単にはできないところが、実務的には拘束条件の設定量が膨大になってきそうに感じる。
そのなかで、全ての瑕疵を開発者に寄せた(フリーハンドで異常な動作を防ぐことを製造者責任とする)のでは、リスク・コストが大きくなりすぎる。なので、「全ての拘束条件の設定」についてのルールが必要、つまり「法律が定める全ての拘束条件の設定」とすることだと思っている。そして、開発を上手く進めて産業振興につなげるという観点で、国がそれをどれだけ柔軟・スピーディにやれて、かつそのルールについて国と業界が協力して、国民理解を得られるかもキー。
「AIに対する基本のリテラシーは、すべては人間が作っており、人格を持つなどあり得ない」と言い切る矢野氏。今回の対談を通して、AIに対する考え方が変わりました。画期的な体験でした。
矢野さんすげえ明快でハッキリしてるから気持ちいいわ笑
トロッコ問題について、人間にとっさの正しい判断ができなかったから仕方ないで終わっていた。人工知能は冷静に瞬時に判断ができるはずなので、パニックとかも影響しないのでジャッジに責任を持つ必要がある。

→これ、ホントかなあ。
トロッコ問題だって、パニックや瞬時の判断がなくたって人間のなかで答えを持ってないじゃん。
"それは単純で、動作の目的がそう言うよう設定されていたからです。詳細は知りませんが、例えば「相手に合わせる」「相手の言うことを繰り返す」のような設定がされていたなど。

たぶん参加者と同じような言葉を言うことによって、相手と親密になるという意図が背後にあったのではないかと思います。"

これはわかりやすい。なるほど、と。
今後は、そのAIはこういうことを目的として設計されている、という前提を認識した上で、活用する側は議論する必要があるわけですね。

擬人化しているように思われやすいため、なかなか高度なコミュニケーションなように思う
AIは細部まで人間が作ったモノである。これはあらゆるプロダクト、サービスに言えることであり、改めて肝に銘じます。
この連載について
独自の視点と卓越した才能を持ち、さまざまな分野の最前線で活躍するトップランナーたち。これらのイノベーターたちは今、何に注目し、何に挑んでいるのか。毎週2人のイノベーターたちに、さまざまなテーマで大いに語ってもらう対談企画。