新着Pick
352Picks
Pick に失敗しました

人気 Picker
音声コピーは20から100の文章サンプルがあれば可能。大量の音声データをストックしておけば、深層学習によって、コンピュータが個人の話し方やトーンなどからその人の声を生成する。

深層学習を使えば、顔を動かすことも可能。5,000枚ほどあれば、ディープフェイクでその人の顔を再現できる。1日で生成できるというから驚きです。

世の中、フェイクだらけになりそう。
要注目のトピックです。まずは百聞は一見にしかず、ということで。このリンク先のYouTube動画をみてください。

https://youtu.be/cQ54GDm1eL0

海外では大きな社会問題/安全保障問題として議論になっているディープフェイク。人工知能(AI)の技術によって、有名人が対象であれば、かなり精巧な「ニセ動画」を作ることができるようになっています。

一方で、DFIdol(ディープフェイクアイドル)という、ポルノ女優の顔を、芸能人に入れ替えた動画サイトも登場。すでにアクセスを遮断されているようです。

いま世界中で波紋をよんでいるディープフェイクについて、NIIの山岸順一・准教授にゼロから解説してもらいました。ご一読ください。
どんどん精巧になる、動画•音声の合成技術。山岸先生が「人間の耳では、もはや人の声と、合成音声の区別がつかないレベルまで進化している」と言っていて、そんなバカなと思ったのですが、実際に聞いてみて見事にどっちがどっちか間違えました。

特に自分も引っかかりかねないと思ったのが、合成音声でのオレオレ詐欺。

山岸先生に、技術の仕組みと対策について分かりやすく解説してもらいました。
楽しみなような恐ろしいような。

口調を再現できるなら、各地方の方言をイントネーションも含めて再現できるようにしたら、文化風習の記録として良いかも。
音声には多様な価値が含まれてます
そのうちのコピーできる部分はコピーとしてかなり安価に大量に生まれる部分になります。
今後その他の価値の部分はまた新しく人間を魅了するようになりそうです
「個人のアイデンティティを認証するような仕組み」でビジネスを考える人がでてくるでしょうね。

つまり、動画にしても静止画にしても、その人のID認証があるか否かで見抜くという感じです。

この技術は、仮想アイドル、仮想インフルエンサーなどでビジネス的に活用されていくでしょう。
テクノロジーの進化とセキュリティと犯罪への悪用防止と、難しい問題ですね。
興味深い