AIが声から「感情を読み取る」、元グーグル研究者が創業したHume AI
コメント
注目のコメント
メンタルヘルス改善や雑談能力向上に役立つのは確かですが、感情推定AIにはやや否定的です。業務システムで感情推定が本当に有効な場面があまり無いからです。
業務システムの利用でストレスやフラストレーションを感じることは良くあります。これをAIが自動推定するより、ユーザからAIに伝えた方がよほど正確です。ソフトウェアなので相手を気にする必要はありません。
むしろ大事なのは、フラストレーションに対して、いかに応えるかでしょう。ChatGPTに「いやそうじゃなくって!」と伝えれば、「申し訳ありません」と別案を返してくれます。これが有用な感情推定と思います。感情把握・感情予測などと呼ばれる分野は、古くは1970年代の表情解析で本格化し、現代では声だけでなく、心拍や脈拍からの予測など、かなりマルチモーダルに行われるようになっています。
それまでの表情解析では、"感情分析"というよりは表情に基づく分類が主として行われていて「笑顔=嬉しい」 「しかめ面=怒り」 など、見た目=感情と捉えることを前提として行われてきました。評価がわかりやすい一方で、見た目だけで内面的な感情を把握するには限界があり、そうした背景から様々なアプローチが近年、AIの高度化によって開花しています。
ただ、新たなアプローチが数多く生まれ可能性が拓かれている一方、大きく2つの懸念が挙げられます。
一つはデータの不十分さです。例えば、「〇〇の声の場合は、△△という感情」「脈拍が◯◯のときは、△△の心理状態」など、声や生体反応と感情とを紐付けるデータや感情基準に統一見解と呼べるほどのものがなく、伴ってAIに学習させられるデータが表情ほど十分に存在しないという点です。
二つ目は、人権へのリスクです。上と関連した問題として、そうした不十分なデータがバイアスを持つ可能性は否定できず、人の感情を誤って判定する、評価を不正に行うことは予想されておかしくありません。こうした誤判定が個人情報と結びいた場合、人権に大きな被害をもたらしてしまいます。
先般に可決されたEUのAI法案では、こうした人の意思・思考を一方的に操作するような技術は、高リスクとして禁止されることが定められています。
感情予測は革新的なフェーズにありビジネス活用にも期待が寄せられる一方、その開発・利用には慎重さが求められることになりそうです。エモーショナルコネクションに期待
音声入力のスピードと情報量にAIが対応できれば可能性が大きく広がります。ロジカルな処理による業務効率化の領域だけにとどまらない。
メンタルヘルス分野での活用は価値ありますよね。人もAI以上に繊細に感じられるのだからエモーショナルコネクションを大切にしよう。