• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

蔓延するニセ動画「ディープフェイク」に対抗、AIによる犯罪捜査

NewsPicks Brand Design
185
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

選択しているユーザー

  • エネルギーアナリスト/ポスト石油戦略研究所代表

    ただの「アイコラ動画」なら昔からあるし、CGクリエイターが作り込めば素人が見て区別不可能な合成動画を作ることなど技術的にとっくにできている。

    問題は、最近のAI技術の1つである「GAN:敵対的生成ネットワーク(Generative Adversarial Network)」でリアルな画像を自動生成する技術を使うことで、リアルな映像を瞬時かつ安価に製造可能になったことであって、その意味合いはライブ映像や当日のニュース映像すら信用できない(既に当日のニュースでさえ切り取り方による編集で意味を変えられているが)ものとなり得る時代にあるということにある。

    この「ディープフェイク」というバズワードのように、なんでも「ディープ」をつければ最新のAI技術の薫りをまとってしまうという最近の傾向には僻遠としている。必ずしも深層学習(ディープラーニング)またはその逆の深層生成モデルを使っていないものでもそう呼んでしまう事は、用語の氾濫の危険がある。

    エネルギーの分野でも、頁岩層(シェール層)でなくても水圧破砕法と水平掘削していればなんでも「シェール(シェールガス、シェールオイル)」と呼んでしまうナイーブさに似ている。

    もっとも、この「ディープフェイク」は、ウォータゲート事件の情報源であり、その用語法の元ともなった1972年のポルノ映画「ディープスロート(喉の奥)」などの語感的連想もあるのだろうが。

    最新の技術としては、スタンフォードのZOLLHÖFERらの「Face2Face」など、数分の動画から特徴量を抽出して別の3Dの首から上のモデリングと合成動画を生成する技術があるが、それ以外のものは表情だけを描き換えるものが多く、まだまだ不安全だ。

    Deep Video Portraits
    https://web.stanford.edu/~zollhoef/papers/SG2018_DeepVideo/paper.pdf#page14

    こうした合成動画を見破るフォレンジック(科学捜査)技術をDARPAが行なっているようだが、人間の目は勿論、フォレンジック技術が確立されればそれを欺く方法もできるわけで、いたちごっこになる。寧ろ、例えばライブ映像である事を保証する第三者機関などの設立が今後必要となると思う。


注目のコメント

  • badge
    東京大学 大学院情報理工学系研究科電子情報学専攻 教授

    見破る研究はdigital forensics (forensics=法廷の、科学捜査の)という分野で精力的に研究されています。ただ、いたちごっこである感は否めません。

    静止画は昔から報道写真の改ざんなど問題になっていました。また、これまでたくさんの小説や映画で偽動画でなくても動画像の編集・改ざんがトリックとして使われています(映画「スピード」や「アマルフィ」など)。

    「自分の生活には関係ない」と思われるかもしれませんが、他人事ではありません。似た技術を使うとドライブレコーダがついていても加害者側が信号無視の事実を改ざんすることもそんなに難しくない。


  • マーケター

    AIの進化も目覚ましいですが、同時にCG技術もかなり進化しています。
    最近の映画なんか見ていると凄いですよ、CG技術。
    先日の安田純平さんの映像もディープフェイクの可能性はありますよね。

    この手のフェイクが恐ろしいのは、見破ることができたとしても、「仕掛けられた」ということ自体がその人にとっての痛手となること。
    仕掛けるということは①誰が犯人か?②仕掛けられた理由は?の2点において波紋を及ぼしますから。
    トランプのロシア疑惑なんてまさにそう。

    何にせよ恐ろしい時代になったものですね。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか