説明可能AI(XAI:Explainable AI)とは? 仕組み・活用メリット・活用例をわかりやすく解説
コメント
選択しているユーザー
AIの学習は帰納法的なプロセスなので、厳密な演繹法的な説明には限界がありますが、バランスよいものができれば安心感が得られます。
※個人的な見解であり、所属する会社、組織とは全く関係ありません
注目のコメント
「説明可能なAI(XAI)」という言葉を聞くと、ブラックボックスとして知られるAIに代わる、説明性の高いAIがあるように思われることがあり、「じゃあそっちを使えばいいじゃん」となることがあるのですが、実際のイメージはやや異なります。
個人的には「説明可能なAI」ではなく「説明のためのAI」という言い方がしっくりくると思っているのですが、既存のAIモデルに対してXAIを当てこんでいき、どこが根拠になっているのかを示すような用いられ方をします。例えば、画像AIのXAIの一つとして知られるGrad-Camという技術は、AIが与えられた画像に対して「犬の確率90%」という出力を返した場合、画像のどの部分が犬だと判断する根拠になったのかをヒートマップで示すというものです。
ではこのGrad-Camがなんでも説明できるかというとそんなことはなく、データの種類や特性(ex. テキストデータ、画像データ、構造化データ=表形式データなど)に応じて、どのようなXAIを用いて説明性を担保するかが変わってくる上、試行錯誤が必要になるものです。
また、求める説明性によってXAIのアプローチも変わってきます。例えば、犬の画像を見分けるAIの説明性を求める場合、どのような判断根拠(特徴量など)で犬と判断しているのかといった、AIモデル全体に関する大局的な説明を求めるのか、あるいは、チワワの画像をパグと判断してした個別的な事象の説明を求めるのかでもアプローチが異なってきます。
なお、AIの精度と説明性はトレードオフの関係にあると言われます。ディープラーニングのような精度の高い手法はブラックボックスが多く、決定木などの手法は精度は低めながらも説明性が高いといった特徴があるなど、用いるネットワークや手法によってもアプローチを検討することが必要になります。
というように、「説明可能なAI」と一言で表すとかなり簡単なものを想像させられがちなのですが(たしかにツール的な使い方ができるXAIもある)、誰に、何を、どのように説明したいかに応じて、これはこれで様々な手法の中から検討する必要があり、100%の説明性を担保する万能なXAIがあるということでは残念ながらないのが実情です。
だからこそ、とくに産業応用においては、少しでもAIの説明性を向上させるための技術と努力が欠かせないのです。説明可能の先は説明不可能かも。
ビジネスにおいては説明可能であることは価値ありますよね。その思考プロセスや判断基準が明確のほうが活用しやすい。
ただし進化を続けるAIが人間に近づけば、あらためて説明不可能な領域に入るかもしれません。人の閃きと同じことができるように。内部統制の評価をしている立場からすれば、AIを統制行為に使う場合に、AIがどんなロジックでOK/NG等を判断したのかを知ることが出来るかどうかは、その統制行為の有効性を判断するのに非常に重要な情報です。
が、人間が統制行為をする場合で、人間に対して『なんでこれをOK(またはNG)にしたのですか?』と聞いたところで、正確で理論的な回答をしてくれる人もいれば、それができない人もいます。
その意味では、AIだからといって判断ロジックの全てを正確に説明してもらう必要ってどこまであるのか?と内部統制担当としては考えるのですよね、、、
この評価理論がまとまらないと、現場部門に対して『AIを統制行為に使って良いよ』とは断言しにくいので、早いところ評価理論を構築して、それを外部監査人と合意したいのですが、まだ誰も、ここまでの議論に参加できるほど内部統制評価理論とAIを組み合わせて考えている人がいないんですよね。。。