DARPA「文脈が読めるAI」の開発プログラムを実施。民間による人工知能開発促す
コメント
選択しているユーザー
「記事」「リンクの貼ってあるビデオ」はすごく簡単に表現されていますが、“第三の波” の素晴らしさ(可能性)は目指している側の意見からすると興奮しますよ。
例えば、 今のAIを第二の波 としていますが 教師DATAが大量に必要です。 大袈裟にいうと 「あ」という文字を認識させるのに 10,000個の「色んなタイプの 「あ」」が必要になります。これを一生懸命トレーニングして 初めて第二の波は 認識できるようになるのですが、子供って 「あ」を覚えるのに 10,000回も書かないですよね。 10個位書いたらもう「あ」という文字は認識できてしまう。 第三の波は まさにこの可能性があります。
事業に置き換えると
今は
「多くのDataを持っている企業が 第二の波を使ってビジネスに勝つ 」
今後は
「第三の波を活用する会社がビジネスに勝つ」
という事が考えられます。
“ Having Data is Win “ から “ Using AI is Win “ に。
データ量に差をつけられる事なく
より多くの方々に 人工知能を使って生活やビジネスをよりよくして行くチャンスがあるということ。
誰にでもチャンスのある社会。
これだけに限らず 第三の波の今後におけるインパクトはもっと多くありますがこれだけでも社会が変わる可能性は広くワクワクしますよ
注目のコメント
DARPA(国防高等研究計画局)がやってるというのが気になる。どのようにして国防に活用するのでしょうか?
インターネットやGPS、自動運転などがDARPAプロジェクトから生まれています。
国防高等研究計画局
https://ja.wikipedia.org/wiki/%E5%9B%BD%E9%98%B2%E9%AB%98%E7%AD%89%E7%A0%94%E7%A9%B6%E8%A8%88%E7%94%BB%E5%B1%80DARPAがやろうとしていることは、AIがAIの判断の理由を説明できるようにすることで、これはいわゆる「文脈理解」とはことなりますよね。おそらく、記事の方が間違えているのでしょう。
いわゆる「文脈理解」は、社会背景やコモンセンスの問題も孕んでおり、ただ文章前後や行間を読めばいいというものでもないので、また別次元の進歩が必要になるでしょう。
従来から、ディープラーニングはそのブラックボックス性が問題になることがあり、判断の見える化に関する取り組みは多くあります。現時点において、なんとなくプロセスの中間処理の見える化はできつつあるものの、100%納得できる説明は、原理的に難しいと思います。
そもそも、人間の判断でさえちゃんと説明できるなどということはありません。現実には、後知恵的に説明を捏造することが殆どでしょう。
しかし、人間がなにか誰かに不都合なことを行った場合、必ず「説明責任を果たせ」などということになります。人間社会において、責任の所在を明らかにするために、説明責任を果たすことは必要なプロセスだからです。関係者が多くの人が納得できる説明をすることで、誰に責任があるのかが明らかになります。
AIによる判断についても、その説明不可能性がAIに重要なことを判断させる際の一般の人が感じる気持ち悪さにつながっていると思います。
米軍は、現時点において、AIのみが自律的最終的に殺傷兵器のスイッチを押す判断をさせることはない、という見解を発表しています。それは、もしその攻撃があとで問題になった時に、その判断に人間の責任者が紐付いていなければ軍法会議にかけようがなく、シビリアンコントロールが効かなくなるからです。
しかし、シリアでのドローン攻撃が行われたり、中国でドローン軍が発足するなど、自律的殺傷兵器(LAWS)が戦争や紛争に導入されうる時代に既に突入しており、その時に有人兵器だけでは明らかに勝てるわけもなく、米軍も将来的にはAI兵器の導入を検討しています。
その場合の責任の所在の法的整理を行うために、「AIに説明責任が最低限果たせるか」という研究を重要視しているのでしょう。
米軍ほどの巨大な軍組織が、国家権力として法的に自律殺傷兵器を運用できるようになったら、それは相当な恐怖ですね。その前に、非法治国家が先に実現してしまうでしょうが。日本語訳の「文脈が読めるAI」だと若干ミスリード感がありますね。
原文は "AI that can explain its decisions" となっていて、AIが自身のアウトプットについて、その理由を説明するようなことを期待しているようです。
AIは良い感じの出力をしてくれるものの、そのプロセスはブラックボックス化されているのが従来のあり方でしたが、リコメンド内容についてAIが解説してくれたりしたらより信憑性が増すというか、より人間の方に寄ってくるようなイメージですね。
研究そのものよりも、サービス化を先に想定したプログラムのような印象を受けます。