AI時代の「感情認識」の行方
コメント
注目のコメント
自動翻訳においてチョムスキーのような言語学者の大家の存在が、むしろ技術の進歩を遅らせ、それを無視した人工言語を媒介とするアプローチに変化したことで変換精度が大きく改善した側面があると理解していますが、感情認識の世界でも同様なことが起こっている気がします。
顔表情の分析には、エックマンによるFACS理論というものがあり、MITのスピンアウトの「アフェクティバ」はそれをベースにした感情ラベリングを、表情筋の動きの組み合わせによって行なっています。
しかし、(私に言わせれば)エックマンのFACS理論のラベリングは人間による喜怒哀楽といった感情分類によるものですが、実際の人間の感情分類は人間が認識できないような多次元性を持っているので(言葉で表せない感情の方が多いし、そもそも顔に感情は殆ど出ないし、本人にもわからないことが多い)、このラベリング方式では自ずと限界があると思います。
(それでもアフェクティバは広告代理店等で広く使われているようですが)
言葉の内容や抑揚から推定するアプローチも同様です。
ソフトバンクやホンダの「感情エンジン」は、光吉俊二のAGI社の8つのバイタルデータをパラメータとして作られたモデルを元にしていますが、部分的な依存構造を作るようなモデルは組めても、一般的な感情を推定できるようなアプローチになっているとは思えません。
今後はもっとブラックボックス化して、ネットワーク構造の中に抽象表現として感情分類を行うアプローチを最初に取る企業が勝つのだと思います。(多分G○ogle)とはいえ、どうやってやるのかはよくわからないのですが(笑)この手の話、とても興味があるのですが、正解としての感情のラベル付けが難しいですよね。どうやってるのかなぁ。
一瞬イラッときたけど、また冷静さを取り戻した、みたいな経時変化を適切にラベル付けさえできれば、そこから先の学習については、出来ることは確実だとは思うのですが、そもそも自分の感情でさえよく分からないことも多い中、どうやってラベル付けするのか、気になります。
彼女が怒っていることに気づかずに空気読めない言動で喧嘩になる、的なのはよくあるシチュエーションなので、人が表情や行動を見てラベル付けするのは、正確にはならないと思うんですよねぇ。大場さんとおおかた同意見ですねぇ、チョムスキーさんのお話も ただ、学者はそういう可説明話・可解釈話を好む、高評価するようにトレーニングされてるので、学者主導だど上手くいかないでしょうねぇ 人手でフィーチャを選んで、人手でレイベルしようと考えているうちは、程々の成果しか出ないかと(かつての"解析的"自動翻訳のように) まあ程々でも良いから、今やりたいんでしょうけど、ビジネスとしては
AIさんがヒトと長く暮らすようになった時に、ヒトと長期的に上手くやることを評価関数に入れてあれば、自然と周りのヒトの感情をある程度認識する(またはヒトがそう感じるような反応をする)ようになるでしょうねぇ、幼児のように
感情の取得も、それがヒトと上手くやるのに役立つのであれば、そういう反応(本気でなくても)をするようになるでしょうねぇ、幼児のように 本泣きとウソ泣きみたいに なので、ブルックスさんはBaxterに顔をお付けになったようですよ