プレミアム会員限定の記事です
今すぐ無料トライアルで続きを読もう。
オリジナル記事 7,500本以上が読み放題
オリジナル動画 350本以上が見放題
The Wall Street Journal 日本版が読み放題
JobPicks すべての職業経験談が読み放題
コメント
注目のコメント
音声コピーは20から100の文章サンプルがあれば可能。大量の音声データをストックしておけば、深層学習によって、コンピュータが個人の話し方やトーンなどからその人の声を生成する。
深層学習を使えば、顔を動かすことも可能。5,000枚ほどあれば、ディープフェイクでその人の顔を再現できる。1日で生成できるというから驚きです。
世の中、フェイクだらけになりそう。要注目のトピックです。まずは百聞は一見にしかず、ということで。このリンク先のYouTube動画をみてください。
https://youtu.be/cQ54GDm1eL0
海外では大きな社会問題/安全保障問題として議論になっているディープフェイク。人工知能(AI)の技術によって、有名人が対象であれば、かなり精巧な「ニセ動画」を作ることができるようになっています。
一方で、DFIdol(ディープフェイクアイドル)という、ポルノ女優の顔を、芸能人に入れ替えた動画サイトも登場。すでにアクセスを遮断されているようです。
いま世界中で波紋をよんでいるディープフェイクについて、NIIの山岸順一・准教授にゼロから解説してもらいました。ご一読ください。どんどん精巧になる、動画•音声の合成技術。山岸先生が「人間の耳では、もはや人の声と、合成音声の区別がつかないレベルまで進化している」と言っていて、そんなバカなと思ったのですが、実際に聞いてみて見事にどっちがどっちか間違えました。
特に自分も引っかかりかねないと思ったのが、合成音声でのオレオレ詐欺。
山岸先生に、技術の仕組みと対策について分かりやすく解説してもらいました。