人工知能にも説明責任を!「ホワイトボックス型AI」の可能性
コメント
注目のコメント
ディープラーニングではパラメータ数と説明可能性は反比例となるようです。
AIは人間には想像できない5次元以上の世界を扱えるので、その結果を人間が理解するには次元削減をして抽象度を下げる必要がありそう。
AlphaZeloもあっという間にelmoを倒して、いま、どれくらい将棋が強いのか未知ですが、なぜ強いかを一言でいうと「有効手をすべて読みきっているから」ということになり、例えばこの説明だけでホワイトボックスと言えるかが課題と思います。人間もブラックボックスだが、それっぽい理由を述べることで相手を納得させるという能力があり、だからこそ(説明)責任能力をもつ「人格」として社会に位置づけられている。
それと同じで、実際の判断のプロセスはどうでもよくて、事後に受け取り手が納得いくような説明(あとでできるだけ矛盾生じないのがベター)を生成する能力が、AIにも今後求められているというだけで、それは人間の納得感を高めるテクノロジーでしかない。
山本先生の「AIと憲法」は昨年拝読したが、若手法学者の方々の熱意を感じたものの、どうしても「AI」「個人データ」「統計処理」の区別が曖昧になってしまっていて、この議論が真に法律に落とし込まれるには(法治国家が崩壊して、そんな時代は永遠に来ないかもしれないが)まだまだ時間がかかるなという印象をもった。
AIと憲法が関わるのは、近代法における人権や人格の問題に関わるからで、そこはAIに法人格をもたせるべきか否かという議論にもつながるが、結局は責任のとり方の問題、つまり刑罰の問題に行き着く。
ちなみに、文中で「パーソナライズ」について述べられているが、現代を生きる人が「これは知能っぽいな」、「ただの統計処理を超えたAIだな」と感じる最後のフィールドが、このパーソナライズだと私は考えている。AIをホワイトボックス化する、不可能でしょ、と思いながら記事を読みました。
私の思っていたホワイトボックス化とは違いました。単純にAIが導き出した結果にその理由を添えてあげることをホワイトボックス型と呼んでいるようです。
これはモデルのパラメーターの数値の意味を理解して言語化することと等しく、言ってしまえばよくある性格診断の結果の説明書きと同じですね。これはあって然るべきだと思います。
本来のホワイトボックスの意味は、プログラムの中身を説明・公開すること。これはビジネスが成り立たないですよね。中身公開しちゃったら同じやつ作ればいいじゃん!てなるので。
標準的にホワイトボックス型、が使われているのかはわかりませんが誤解を生む表現なので、名前変えませんか。。。