(ブルームバーグ): 対話型人工知能(AI)「ChatGPT(チャットGPT)」を手掛ける米オープンAIは、米国など世界各国で今年、重要な選挙が相次ぐのを控え、自社製品が誤った情報に利用されるの阻止する一連の取り組みを展開する。

オープンAIは15日、ChatGPTを通じて提供される時事情報を属性化し、画像が同社のAIソフトウエアで生成されたかどうかをユーザーが判断する上で役立つ新たなツールを発表した。いわゆる「ディープフェイク」の画像や他のAI生成コンテンツが、選挙戦で有権者に誤解を与えかねないリスクに対し懸念が高まっていることが背景にある。

同社は15日に投稿したブログで、「選挙の公正さを守るには、民主的なプロセスであらゆる分野の連携が必要だ。当社技術がこのプロセスを損なう形で利用されないようにしたい」と説明した。

オープンAIは画像生成AI「DALL-E (ダリ)3」で生成された画像について、画像を誰がいつ作成したかなどコンテンツの出どころに関するデータを指す来歴情報のコード化を開始する。これにより有権者はウェブで目にする画像がAI生成かどうかを見極めやすくなりそうだ。このプロセスでは、C2PAが確立した暗号標準が使用される。C2PAはアドビやマイクロソフト、インテルなど数社が2021年に共同で設立した生成AIのフェイク画像に対抗する標準化団体。

オープンAIは、画像についてDall-E生成かどうかを調べるためにユーザーが利用できる画像検出ツールを投入することも明らかにした。まずジャーナリストやプラットフォーム、研究者に提供し、フィードバックを求める。これまで、特定の画像・文章がAI生成かどうかを判断する多くの検出ツールは精度に問題があった。だが、ミラ・ムラティ最高技術責任者(CTO)は昨年10月、同社の画像検出ツールは社内試験で99%の精度を示したと述べている。

原題:OpenAI Will Roll Out New Tools to Thwart Election Misinformation(抜粋)

More stories like this are available on bloomberg.com

©2024 Bloomberg L.P.