水害フェイク画像の投稿者を直撃「こういう人も存在するので注意しましょう、と知ってほしかった」クリエイティブなAI画像生成の登場に警鐘も
コメント
注目のコメント
記事の通り、私はこのフェイク画像を発見して報道機関などに流れないようブロックしたFASTALERTの運営者の立場でこの番組に出演して、フェイク画像を投稿したくろん氏と"共演"した。
彼はフェイク画像を流すことが悪いと承知のうえで出てきているので、彼に対して改めて規範意識を説く気持ちにはならなかった。一方、同じような行動に及ぶ人が大勢出ると、避難行動や復旧作業に影響したり、場合によっては二次災害のリスクも生じるので、社会全体で「ダメなことはダメ」という認識を共有する必要があると感じる。
番組中では、竹中平蔵氏が私とのやり取りの中で法規制を主張されていたが、これは表現の自由に関わるセンシティブな問題で、個人的には賛同できない旨コメントした。諸外国ではデマ・フェイクニュース規制法の類はほぼ言論統制、報道機関への牽制のために使われており、報道ベンチャーの経営者としても正直受け入れがたい。
熊本地震の時の有名な「ライオン」デマの発信者は偽計業務妨害罪で逮捕されているが、こうした既存の法律、罪名での対応や、AI画像生成のシステム、プラットフォームなどの対策でカバーすることが望ましい。
そして、最後の砦がFASTALERTのようなAIにより災害情報などをスクリーニングする技術であるべきだと考える。今は、この「最後の砦」しかない。包丁で人を刺した犯人から「包丁は危ないんだよ、と伝えたかった。」と言われてるような印象。
ディープフェイクが出てきている事を伝える手段として、別にこんな形で騒ぎにする必要は全くない。お笑い芸人が顔だけすり替えられて本当に喋っているように見える動画とか、すでに人にネガティブな影響を与えずに技術を示している事例はたくさんある。というか、オオカミ少年のようになったら逆効果ではないか。浅はか。
目的が正しければ手段はなんでも良いという事ではない。何かしら反省する機会を与えられたら良いのではと感じます。これは序の口でこれから世界規模でこういうことが次から次に起こることは確実です。生成された画像かどうかを判別する技術の研究は進んでいる一方で生成技術もどんどん進み、イタチごっこになったとしてもSNS側が生成画像であれば注意喚起する機能を実装しなくてはいけないと思います。多分近いうちに出るのではないでしょうか。