計算神経科学の研究者が指摘する「AIがうつ病になる可能性」
コメント
注目のコメント
セロトニンという脳内物質は、幸福度や神経活動の柔軟性に関与します。人間はセロトニン分泌量で、脳の活動程度をうまく管理すると言われます。
Mainen氏によれば、いずれAIの能力が上がる→どの程度で学習するかを自身で決める必要が出てくるらしい。そこで、人工知能はセロトニンの代わりとなるようなシステムを発達させることで「うまくバランスを取る必要がある」。しかし、そのシステムを持つことで、ヒトがセロトニンが原因でかかる精神的な障害を人工知能も持つことになってしまうのです。
(参照)
http://www.sciencemag.org/news/2018/04/could-artificial-intelligence-get-depressed-and-have-hallucinations
100年後には「ロボット精神科」みたいな診療科が生まれたりするかも、ですね!タイトルにある「うつ病」とは当然比喩で、変化が起きた時に適応できるアルゴリズムが組まれていないとAIも機能停止状態になるというもの。気軽に「うつ病」という表現を使ってほしくはないが、、、伝えたいメッセージはわかります。
本稿におけるうつ病の定義
『柔軟性をなくし、新しい状況に適応できないとか、新しい考え方に転換できない状態(記事から抜粋)』
この定義であれば、たしかに、機械学習を考えてみると、教師データのルールがあるところで変わった時に、変化の前後のデータの重み付けを変えてあげないと、それまでの蓄積データの方が、あるところまでは情報量が多いので、新しい状況に適応できない、ということは、起こりうる。
「仮に似ているものだと仮定して、そこに違いがあるとしたら、その違いを生み出している要因はなにか?」というアプローチはとても面白い。
ただ、この論考を読んでいると、計算神経科学よりも、人間向けの神経科学(認知神経科学?)の方が、まだ随分先行していて、AIとのアナロジーから洞察を得る手前の、アナロジーを見つけている段階、と読めてしまった。こんなこと言うと、専門外の人に説明できるのはその辺りの情報になるんだよ、と、お叱り受けそう。