• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

DARPA「文脈が読めるAI」の開発プログラムを実施。民間による人工知能開発促す

228
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

注目のコメント

  • badge
    東京大学 大学院情報理工学系研究科電子情報学専攻 教授

    DARPA(国防高等研究計画局)がやってるというのが気になる。どのようにして国防に活用するのでしょうか?

    インターネットやGPS、自動運転などがDARPAプロジェクトから生まれています。

    国防高等研究計画局
    https://ja.wikipedia.org/wiki/%E5%9B%BD%E9%98%B2%E9%AB%98%E7%AD%89%E7%A0%94%E7%A9%B6%E8%A8%88%E7%94%BB%E5%B1%80


  • エネルギーアナリスト/ポスト石油戦略研究所代表

    DARPAがやろうとしていることは、AIがAIの判断の理由を説明できるようにすることで、これはいわゆる「文脈理解」とはことなりますよね。おそらく、記事の方が間違えているのでしょう。

    いわゆる「文脈理解」は、社会背景やコモンセンスの問題も孕んでおり、ただ文章前後や行間を読めばいいというものでもないので、また別次元の進歩が必要になるでしょう。

    従来から、ディープラーニングはそのブラックボックス性が問題になることがあり、判断の見える化に関する取り組みは多くあります。現時点において、なんとなくプロセスの中間処理の見える化はできつつあるものの、100%納得できる説明は、原理的に難しいと思います。

    そもそも、人間の判断でさえちゃんと説明できるなどということはありません。現実には、後知恵的に説明を捏造することが殆どでしょう。

    しかし、人間がなにか誰かに不都合なことを行った場合、必ず「説明責任を果たせ」などということになります。人間社会において、責任の所在を明らかにするために、説明責任を果たすことは必要なプロセスだからです。関係者が多くの人が納得できる説明をすることで、誰に責任があるのかが明らかになります。

    AIによる判断についても、その説明不可能性がAIに重要なことを判断させる際の一般の人が感じる気持ち悪さにつながっていると思います。

    米軍は、現時点において、AIのみが自律的最終的に殺傷兵器のスイッチを押す判断をさせることはない、という見解を発表しています。それは、もしその攻撃があとで問題になった時に、その判断に人間の責任者が紐付いていなければ軍法会議にかけようがなく、シビリアンコントロールが効かなくなるからです。

    しかし、シリアでのドローン攻撃が行われたり、中国でドローン軍が発足するなど、自律的殺傷兵器(LAWS)が戦争や紛争に導入されうる時代に既に突入しており、その時に有人兵器だけでは明らかに勝てるわけもなく、米軍も将来的にはAI兵器の導入を検討しています。

    その場合の責任の所在の法的整理を行うために、「AIに説明責任が最低限果たせるか」という研究を重要視しているのでしょう。

    米軍ほどの巨大な軍組織が、国家権力として法的に自律殺傷兵器を運用できるようになったら、それは相当な恐怖ですね。その前に、非法治国家が先に実現してしまうでしょうが。


  • badge
    ㈱ニューロープ CEO / PIIF 准教授 / 純文学小説家

    日本語訳の「文脈が読めるAI」だと若干ミスリード感がありますね。
    原文は "AI that can explain its decisions" となっていて、AIが自身のアウトプットについて、その理由を説明するようなことを期待しているようです。
    AIは良い感じの出力をしてくれるものの、そのプロセスはブラックボックス化されているのが従来のあり方でしたが、リコメンド内容についてAIが解説してくれたりしたらより信憑性が増すというか、より人間の方に寄ってくるようなイメージですね。
    研究そのものよりも、サービス化を先に想定したプログラムのような印象を受けます。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか