ロボットが「感情知能」を身につける? 歩き方から人間の気分を“理解”する技術、米研究チームが開発
コメント
注目のコメント
>最初に注意しておくが、この感情知能(EQ)の高いロボットは、推測した感情に基づいて行動する。実際に人の心を読みとることはできない。
この部分が大切で、おそらく人間が「感情を理解する」と言った意味の行動をロボットが出来るのははるか先。でも、「人間の感情を外見から読み取る」くらいの話であれば、すでに機械は人間を越えていてもおかしくない。
例えばHoloLnesなんかを装着すれば、他人の感情変化を察知して、人間が気付けない微小な変化に、機械が警告やサジェストを出せるようになる未来はすぐ来るのかもしれない。うちの研究室で,体の動きから近い将来の動きとか持っているものの重さとか,いろいろと推定するという研究をしているので,この手の感情の推定というのも当然考えているのですが,この手の研究の困難なポイントは,正解をどうやって用意するかです.そこさえできれば,正直,現在のDeepLearning技術であればこの辺はそんなに難しい話ではないと思います.
記事を見る限りだと,動き方を見て人が判断して正解の感情をタグ付けした,ということのようですが,流石にここまでHappy全開で歩いている人というのはなかなかいなくて,現実的にはもう少し微妙なニュアンスを理解できるようにならないと実用的ではないのかなぁと思います.というか,動作から人がそこまで正確に相手の気持ちを読み取れるのであれば,男女のいさかいの半分くらいはなくなるのではないかと... もっと別の指標で自動的に情動がタグ付けられるようになると良いのですが.
今,ちょっと違う分野で似たようなことをやろうとしているのですが,このコロナで新しくデータを取ったり出来ないのが悲しいところ...
ジャンプ等の動作を予測する
https://hapislab.org/research-topics/computational-foresight歩き方で感情の識別ができるようになる前に,個人の識別ができるようになるでしょうね.歩行者と正対したときに,右に避けるか,左に避けるか,立ち止まるかなどの次の動作を一瞬早く識別できるようにならないでしょうか.