「理由を説明するAI」実用化、ビジネス激変の可能性
コメント
注目のコメント
「説明可能AI」という言葉を聞いて、多くの人は人間がそうするように言葉を尽くして納得の行く説明文を生成することを想像するのではないでしょうか。しかし、現状それは難しく、例えば画像認識であればその判断を下すに至った領域の重要度を示すなどの方法が提案されています。
それでもいいかというと、結構難しい点があります。
一つは入力を変えるとその重要度マップが大きく動いてしまうということ。例えば医療画像の判別において、画像自体は変わらないけれども血液検査の数値データを変化させると重要度マップが変化するなんてことがあります。画像自体変わってないので、血液検査の結果によって画像の見る部分を変えるというのは直感的に反することになります。
2つは深い説明になっていないこと。私の研究室では画像のデザインの良し悪しについて研究しています。上記の様に画像中でいい部分・悪い部分を指摘してくれます。ただ、デザイナーさんに言わせれば領域はわかってもその何が原因でどう修正しろと言われているのかわからないということのようで、ビジネス界で言われるように「Whyに5回答える」AIが必要なようです。
いま、説明可能AIについて非常に面白い研究をしており、とてもワクワクしているところです。これは面白い。
ブラックボックスで理由がわからないAIには人間は抵抗を示しがちです。自分にパフォーマンスに自信を持っている人は尚更です。
理由を説明されれば、納得感を持って実行に移すことができるようになります。AI 自身が自らの思考過程を理由を挙げながら説明すると言う事でしょうが、そのアルゴリズム自体は誰が造り出すのか?それをもAI が造り出すのか??人間の人間たる『考える』機能が益々衰える叉は思わぬ方向へ流れる危険を包含する気がする。