AI生成コンテンツの安全性向上へ--マイクロソフトが複数のツールを発表
コメント
注目のコメント
これは重要なニュース。
AIやユーザーによる有害なコンテンツを検出する「Azure AI Content Safety」が登場しました。
有害判定の仕組みをBingに聞いてみました。
<Bing引用>
テキストAPI: テキストに含まれる単語やフレーズを分析し、有害カテゴリとその確信度を返します。また、LLMモデルを用いて、AI生成コンテンツである可能性が高いテキストを検出します。
画像API: 画像に含まれる物体やシーンを認識し、有害カテゴリとその確信度を返します。また、GANモデルを用いて、AI生成コンテンツである可能性が高い画像を検出します
<Bing引用>
テキストも画像どちらも有害確信度を返すとともに、AI生成の可能性が高い箇所を示してくれるようです。顧客サービスに生成AIを提供する際には必須の機能になりそうです。
有害の他に個人情報か否かも検出してくれるとありがたいのですが。
また、画像や動画がAI生成されたかを判断する機能が「Microsoft Designer」と「Bing Image Creator」に搭載されるとのこと。AIが生成画像に暗号化フラグを埋め込むようです。責任あるAI。Responsible AI。Copilotの華々しい発表が続く中で、AIと向き合う上でとても重要なソリューションもMSは発表しています。Keynoteでは強調されていたんだけど、メディアがさほど取り上げてないような気がします。
Azure AI Content Safety。このモデルは、画像とテキストの両方で様々な言語のヘイトスピーチ、暴力的な内容、性的な内容、自己危害的な内容を検出するように設計されていて、フラグが立てられたコンテンツには重症度スコアが割り当てられ、人間のモデレーターにどのコンテンツが緊急の注意を必要としているかを示すものです。Azure Open AI Serviceに組み込みコンテンツ管理基準を満たさないプロンプトで生成されたコンテンツを検出し、削除するのを支援できるみたいです。
今後、企業がAIを活用してビジネスやサービスを提供していく上で大きく立ちはだかるのが、自社で使っているAIシステムは責任あるAIなのかどうか。間違いなくリスク管理の重要なひとつの項目になるでしょうね。