「自ら下した判断の根拠を説明できるAI」が求められている理由
コメント
注目のコメント
現在のAI、とくに統計的機械学習やディープラーニングは「帰納」型、つまり過去の似た事例に寄せた判断を下しているにすぎません。
厳密な説明をしようとすれば、参考にした過去事例への判断を開示することになりますが、こんどはプライバシー保護の問題もでてきます。
結局のところ、帰納型の機械学習システムを信頼するかどうかという社会的コンセンサスをどう形成するかが重要になると思われます。
参考: 樋口 知之, 視点 人工知能はみようみまねマシンの究極形, 情報管理, 2016, 59 巻, 5 号, p. 331-335
https://doi.org/10.1241/johokanri.59.331AIの言う「根拠」というのは本当に説明できるものなのか…
というのが率直な感想です。
AIって「理論モデル」が先にあるような理論(仮説)駆動型ではなく、ビッグデータを元にしたデータ駆動型でしょう?
ましてエクセルなど、数字から分析した「構造化データ」だけでなく、画像などの「非構造化データ」の分析までしているので、その過程を「人間が納得できる表現」で説明するのって、相当難しい気がしますが…。