Picks
136フォロー
1096フォロワー
“実在する人物”の声を完璧に再現「ディープフェイク・ボイス」を誰でも使える時代に…「オレオレ詐欺」のリスクも  (小林 啓倫) @moneygendai
マネー現代
永吉 健一株式会社みんなの銀行 取締役頭取
日本では、2019年のNHK紅白歌合戦で3D映像化も含めて再現された「AI美空ひばり」が記憶に新しいですが、AIや技術進化が更に進み、完成度の差はあれどAmazonのアレクサに残された「1分未満」の音声データ量で故人の声を再現できたり、タカラトミーが販売予定のスマートスピーカー「coemo(コエモ)」では「声の収録は最初に約15分間指定の原稿を読むだけ」で“実在する人物”の声を再現できる「ディープフェイク・ボイス」の最新状況にはかなりの衝撃を受けました。 オレオレ詐欺などでの悪用や、声(音声データ)は誰のものか?といった倫理観・法律上の手当などは勿論これから必要になってくるでしょうが、個人的には人とのコミュニケーションという観点に注目。 人とのコミュニケーションで受け取る情報を100とすると、バーバル(言葉情報)が7%で、ノンバーバル(それ以外)が93%と言われ、ノンバーバルが重要だよねと言われてきた訳ですが、ノンバーバルのうち、38%は声の強弱や口調などの聴覚情報であり、これも合わせると45%を占めることになります。 ディープフェイク・ボイスが人とのコミュニケーションの約半分までをカバーする存在になった時、生身の人間のコミュニケーションの在り方をふと考えさせられてしまいました。
NORMAL