AIは手品だ。神話の”ウソ”をぶった斬る

2016/10/3
独自の視点と卓越した才能を持ち、さまざまな分野の最前線で活躍するトップランナーたち。彼らは今、何に着目し、何に挑もうとしているのか。連載「イノベーターズ・トーク」では、毎週注目すべきイノベーターたちが、時代を切り取るテーマについて見解を述べる。
第46回は、日立製作所 研究開発グループ技師長でNewsPicksのプロピッカーでもある矢野和男氏と、中央大学総合政策学部教授で米国ニューヨーク州弁護士の平野晋氏が登場する。
矢野氏は、ビッグデータを前提とした新時代のAIの本格開発を進めるAIの専門家だ。片や、平野氏は、米国ニューヨーク州弁護士時代からロボット政策などについての豊富な知識を持ち、現在は、総務省の有識者会議「AIネットワーク化検討会議」の座長代理として、人工知能等の開発問題を検討している。
そんな2人が、「AIと倫理」というビッグイシューについて、討議するーー。
企画の発端は、2016年3月米マイクロソフトが開発した人工知能「Tay」が一般人との会話のなかで、「ヒトラーは悪くない」といった趣旨の発言をして、急遽、実験が中止になった出来事だ。
なぜ、Tayは、ヒトラーを擁護するような発言をしたのか?
AIが、そのようなことを“勝手に”考えたのか? もし、それが可能なら、AIに倫理を“教育”する必要があるのか? AIが甚大な倫理的ミスを犯した場合、いったい、誰が責任を取るのか?
AIの専門家と法律の専門家が激論を戦わす。
話は、もちろんTayの「ヒトラー礼賛発言」からスタートする。
あれは、AIが自分で考えたことか、あるいは、誰か人間が仕組んだことか──平野氏がそう尋ねると、開口一番、矢野氏はAIの本質について語る。
「AIは目的、動作、制約と、すべて人間が設定したもの」だ、と。
さらに、矢野氏はAIは、手品(イリュージョン)と似ている──とさえ言う。
いったい、その真意とは何なのか。
平野氏はなおも、矢野氏に問う。では、機械学習やディープラーニングは、どうか。
コンピューターが自分で学習していくとの触れ込みに聞こえるが、と。
この問いに矢野氏は実に明快な答えを出す。曰く、「AIは包丁と同じです」。
つまりは、その刃物を使う料理人の腕が問われるという意味か。
さらに、矢野氏は囲碁の名人に打ち勝ったAI「アルファ碁」の事例を持ち出し、AIとはすなわち人海戦術を可能にすることだ、と語る。
AIと倫理というテーマを語る上で「トロッコ問題」は必ず引き合いに出されるテーマだ。
つまり、クルマを運転中、人が飛び出したなど、事故が避けられないとき、誰の命を優先して事故を回避すべきかという思考実験だ。
事故は一瞬の出来事ゆえ、人間がこの状況に対峙した場合、判断不能状態に陥る。
だが、センス、シンク、アクトの判断が人間の比ではないAIとなると、事前に判断基準を設定する必要があるのではないか──平野氏は、そう問題提起する。
実際、アメリカではもうすでに、「今までは判断しなくてよかったけれど、判断が必要になったから議論をしましょう」と倫理学者らが言い出していると言う。
だが、矢野氏はAIに倫理を学習させること自体、問題設定としてナンセンスだと、反論する。
はたして、その意味とは?
そして話題は「シンギュラリティ」──すなわち、AIが人間の能力を超える日──に展開していく。
その到来はあるのか?と問う平野氏。だが矢野氏は、そもそもシンギュラリティは誤解されていると、一刀両断する。
「カーツワイルの著書『The Singularity Is Near 』のサブタイトルは、は「When Humans Transcend Biology」。すなわち人間が生物学的な人間を超えるとき、という意味です。これをシンギュラリティと言っており、AIが人間を超える、と書いてあるわけではない」
では、シンギュラリティ問題の本質とは、何なのだろうか。
対談も終盤にさしかかると、矢野氏は、AIに対する一般的な人々の誤解を打ち砕いていく。
曰く、AIにより人間の仕事は奪われず、かえって増える。AIは意思を持ちえない……と。そして、現在のAIブームはあと2、3年で終わるバブルだ、とさえ言ってのける。
AIバブルが弾けるとは、どういうことなのか。
(予告編構成:佐藤留美、本文構成:栗原昇、撮影:遠藤素子、デザイン:名和田まるめ)