英語ネイティブとの発音の違いを深層学習で可視化 ソニーCSLが開発
コメント
選択しているユーザー
注目のコメント
ネイティブから指摘された正しい発音を(何度か修正を受けたのちに)自分がこうだと思って発した時に、結局ズレていることがよくある。こういう時、自分や他人が発した音を自分の耳が正しく捉えているかどうか疑わしいと感じる。例えば、日本語の音楽であってもコンビニで空で聞いた時に歌詞を正しくキャッチできない時があるので、音を正しく捉えて聞き分けられるというのはある種の才能だと思う。そういう意味で耳が良い人はリスニングやスピーキングの上達が早いと思います。
最近はELSA Speakが代表格かもしれませんが、AIが発音の良し悪しを採点してくれる発音矯正のアプリとかも増えてきました。それらを使って思うことは、模範解答と自分の発音との違いがあることは聞いてみてなんとなくわかりますが、それがどれだけ違うかまではあまりよくわからないです。(パーセンテージでの良し悪しはわかりますが…。)
なので、このように可視化してくれる機能が備わると、よりいいサービスになるように思いますし、是非あったら使ってみたいです。