(ブルームバーグ): 人工知能(AI)を使って写真に写った女性の服を脱がせるアプリやウェブサイトが人気を得ていることが、ソーシャルネットワーク分析会社グラフィカの調べで分かった。9月だけで2400万人が脱衣サイトを訪れた。

グラフィカによると、こうした「ヌード化」アプリ・サイトの多くは、人気のソーシャルネットワークをマーケティングに利用している。

例えば、今年に入ってからX(旧ツイッター)やレディットを含むソーシャルメディアで、脱衣アプリの広告リンクが2400%以上増加したという。これらのサービスは、AIを使って人物がヌードになるように画像を作り直す。多くのサービスは女性にしか使えない。

こうしたアプリは、AIの進歩によって非合意のポルノが開発・配布されるという憂慮すべき傾向の一部であり、ディープフェイクポルノとして知られる捏造(ねつぞう)メディアの一種だ。画像はしばしばソーシャルメディアから取得され、被写体の同意や管理、知識なしに配布されるため、その拡散は深刻な法的・倫理的問題を生む。

人気の高まりは、ほんの数年前に作成されたものよりはるかに優れた画像を作成できるAIが幾つかリリースされたことによるものだとグラフィカは指摘。オープンソースであるため、アプリ開発者が使用するモデルは無料で入手できる。

グラフィカのアナリスト、サンティアゴ・ラカトス氏は「実際にリアルに見えるものを作ることができる」と話す。以前のディープフェイクはぼやけたものが多かったという。

無許可ポルノ

Xに投稿された脱衣アプリを宣伝する画像には、顧客がヌード画像を作成し、それを元の画像を使われた人物に送りハラスメントするような言葉が使われていた。アプリの一つは、グーグルのユーチューブでスポンサーコンテンツを有料で提供しており、「nudify」という単語で検索すると最初に表示される。

グーグルの広報担当者は「性的に露骨な内容を含む広告」を同社は許可していないと説明。「問題の広告を見直し、社内規定に違反するものを削除している」と明らかにした。

レディットの広報担当者によると、同サイトは捏造された性的な素材を非同意で共有することを禁止しており、調査の結果、幾つかのドメインを禁止したという。Xはコメント要請に応じなかった。

無許可ポルノは以前からインターネットの弊害だったが、プライバシーの専門家は、AIテクノロジーの進歩がディープフェイクソフトウエアをより簡単で効果的なものにしていることに懸念を強めている。

電子フロンティア財団(EFF)のサイバーセキュリティー担当ディレクターであるエバ・ガルペリン氏は「このようなことが一般人によって一般人をターゲットに行われるのを目にすることが増えている。高校生や大学生の間で見られるようになった」と語る。

被害者の多くが自身のフェイク画像について認識しておらず、知った場合も法執行機関に捜査してもらったり、法的措置を講じたりするための費用の捻出に苦労するかもしれないと同氏は指摘している。

原題:Apps That Use AI to Undress Women in Photos Soaring in Use (3)(抜粋)

More stories like this are available on bloomberg.com

©2023 Bloomberg L.P.