フェイク画像や偽情報を「Photoshop」が暴く? 編集履歴を記録する共通データ規格のインパクト
コメント
注目のコメント
デジタルコンテンツが急激に増加する中で、自分が見ているコンテンツがフェイクではないか、本当に信頼できるものなのか、皆が確証を得たいと思っていることでしょう。
フェイクニュースがはびこる中、それらに惑わされることなく、信頼してデジタルコンテンツに触れられるように、AdobeはニューヨークタイムズやTwitterとも協業しています。それが記事にある「Content Authenticity Initiative(CAI)」です。
昨年のMAXのスニークプレビューでも紹介した「PROJECT ABOUT FACE」は、レタッチした顔面写真を一発で見破る開発中の新技術です。レタッチした部分(瞳を大きくしたり、小顔にしたり)はピクセルが潰れているため(⇒補足:画像に修正が加えられるたびに、のちの分析に役立つ手がかりが残されます。画像編集により、高コントラストなエッジ、人為的に均一化された領域、異なるノイズパターンなど、固有の痕跡がピクセルレベルで残るわけです)通常は人の目では痕跡について判断できませんが、ピクセルレベルの詳細解析を行ったり、それらを強調するヒートマップなどフィルターを適用することで検出できます。さらに元の状態の画像にも戻せるのです。
Adobeが取り組んでいる様々な研究の成果を、今年10月のMAXでも存分にご紹介したいと思いますので、是非ご期待ください。一部、「フェイク画像を見破る技術」について言及している人がいるけど、今回はそれとは違う話題。もちろんそちら技術も進んでます。機械学習などでよく言われるGAN(敵対的生成ネットワーク)というのは、誤解を恐れずに言えば「フェイク画像を作るAI」と「フェイク画像を見破るAI」の2つを作って、相互が競い合うように成長していく2つで1組のAIみたいな感じだったりします。けど、構造上イタチごっこになっちゃうので色々難しい。
(書いてるのがAdobeのひとなのでちょっと不安ですが。間違ってたらごめんなさい)
今回紹介されているのは、「改ざん出来ない形で署名や編集ログをつけるのを一般化する」という取り組み。
詳細はちゃんと追えていないけれども、「この画像は○○社の記者の××さんが撮影し、それを△△さんが編集したものだ」というログを残すことで、信頼性を担保しよう、というもの。
取り組み自体は面白いと思うけれども、例えばWebの証明書により偽サイトに騙される人がいなくなったかと考えると、決してそんなことはなく、十分なITリテラシーがないと結局騙される人は騙されそう。
「ITリテラシーを持っている人が判断する基準が一つ増える」くらいの効果に留まりそう?メディアのファクトチェックに不可欠だと思いながら読み進めていると、NYTが導入するとの紹介があり納得感。
つい最近、架空のジャーナリストがディープフェイクのプロフィール画像などを使ってイスラエルの有名誌に寄稿をしていた事件が明らかになりましたが、こうした技術が実装されれば簡単にフェイクを見破ることができたのでしょうか。あらゆる分野に汎用性があるでしょうね。ぜひ実践したい。