新着Pick

AIにおける意思決定プロセスの「見える化」で、AIの信頼性を高める

Mugendai(無限大)|新たな視点と最新の動向を提供するWebメディア
229Picks
シェアする
Pick に失敗しました

人気 Picker
「60%の回答者が、AIが起こしうるトラブルの「責任問題」を懸念している」

マスコミが煽っているからじゃないですかね。。。。
ソースは示せませんが、とあるイベントで聞いたところだと
・きちんと説明できるが精度はそこまで高くない人間
・説明はできないが精度が高いAI
だと、人がどちらを選択するかはいまはちょうど半々くらいだそうです。
問題は、トラブルが起きたときの原因追求と対策です。

あるプロセスやルールのもとで人間が決めていれば、誰でも、なぜ問題が起きてどうすれば対策が打てるか、考えて理解することができます。

一方、AIの判断によってトラブルが起きたとき、データサイエンティストはその原因追求ができて対策が打てたとしても、そのデータサイエンティストの上司や顧客が理解できない恐れがあります。

データサイエンスが分かる人が上に立つのがまずは解決になるんじゃないでしょうか。
「意思決定プロセス」の見える化は言い過ぎ。ブラックボックステストでの「意思決定結果」の見える化。
そこに価値を感じるならアリだけど、過剰な期待に要注意。

=再掲=
・バイアスの検出:主に学習データの統計的な偏りを見つける(だけ)
・意思決定の説明:テスト・イベントを大量に生成して、AIの判断結果の傾向を見る(だけで、ニューラルネットの中を覗くわけではなく、判断理由は不明のまま)
・フレームワーク非依存:データの入出力だけをチェックするので、ブラックボックス内の実装方式は関係ない
https://newspicks.com/news/3335773/
まさしく今このBlack Boxを理解してビジネスにつなげる仕事ですが、可視化されてもアルゴリズムはどんどん変わりますからまだまだチャレンジは大きいかな、と。#ai #データ可視化

抽出された結果に対して「なぜ、そうなるのか」を明確に説明できないという問題があります。
素人理解ですが、生身の人間の意思決定プロセスをまねて高度化したものがAI、まさに「人工」知能なのでしょうから、生身のプロセスがわからなければ、可視化しても信頼感が失われるだけではないでしょうか
関連記事一覧
実践的にPython・AI技術が学べるAIプログラミング学習サービス AI Academyの大幅アップデート+本日から無料で一定期間利用可能
プレスリリース・ニュースリリース配信シェアNo.1|PR TIMES
555Picks

AIがAIを作る時代に突入! グーグルのAutoML。 シンギュラリティをユートピアにするのも ディストピアにするのも、我々人類しだい!
Diamond Online
381Picks

AIのブラックボックス化解消、米IBMが意思決定を説明する技術開発
ニュースイッチ
333Picks

インフォグラフィックでみる「説明可能なAI」の正体
FUJITSU JOURNAL
224Picks

マイティAIは、CEOを病で失うという苦難をどう乗り越えたのか
Inc.
97Picks

AI講座をYouTubeで無料公開。AI研究・活用の最前線で活躍する3名が登壇
AMP[アンプ] - ビジネスインスピレーションメディア
52Picks

アマゾン「音声AI経済圏」止まらぬ進撃 —— 電子レンジで白モノ家電参入に隠された野望
Business Insider Japan
42Picks

アパレルはAIをどう使うべきか、AIベンチャーのファッションポケットに聞く
WWD JAPAN.com
38Picks

AIはなぜその答えを導き出したのか ~根拠を見える化する「説明可能なAI」~
FUJITSU JOURNAL
28Picks

スタンフォード大のAndrew Ng氏が非エンジニア向けAI講座「AI For Everyone」をCourseraで公開
Ledge.ai
20Picks