バイアスなきAIを創るのは、なぜ難しいのか
コメント
注目のコメント
こういった問題は「AIの偏見」として以前から指摘されています。
AIの偏見を防ぐ為には、AIの「透明性」の確保、すなわち「制御可能、そしてオープンで透明性があり理解可能であること」が必要です。
ホワイトハウスが10月12日公表したAIの社会的な影響と制度設計についての初めての報告書「人工知能の未来に備える」においてもこの透明性を強く意識した内容となっているようです。
詳しくは以下の記事を参照ください。
https://newspicks.com/news/1838357/機械学習やそれを用いた人工知能は、学習というプロセス上、インプットが必要。当たり前だがどういったデータをインプットするかによって結果は異なってくる。代表的にはネットは高齢層より若年層のほうが使用しているからデータ量が実際の世界とは比率が異なるし、大統領選挙でも話題となったが、正しいデータがそもそもとれていない可能性もある。人間の場合、一つの個体でも同じ情報でも異なった判断をすることはあるし、複数個体であれば矛盾した判断をするが、それを一つの機械で処理すれば、その矛盾をどう消化するかという課題もある。消化できないことは判断しない、情報提供に留めるというのも一つだが、そうするとできることは良くも悪くも限られるだろう。
それゆえにバイアスはなくならないと思う。なくなるとすれば、上記のような矛盾ゆえに両論併記をするという形であって、それは各論単位でバイアスを集めたもの。むしろ存在するということを前提に、どう付き合っていくかが現実課題だと思っている。