オープンAI、欧州で事業停止も 新AI規制巡り─CEO=報道
コメント
注目のコメント
生成AIは、4段階のリスクレベルの内、2番目のハイリスクに指定される模様。
1.受容できないリスク→禁止
2.ハイリスク→規制
3.限定リスク→透明性の義務
4.極小リスク→規制なし
規制の内容はいくつかあり、Open AIの事業停止につながりそうなのはDやEあたり。
A.リスク管理プロセス
B.高品質な学習、検証、テストデータ
C.文書化、ログ機能
D.適切な透明性、ユーザーへの情報提供
E.人間による監視
F.堅牢性、正確性、サイバーセキュリティ
(参考) EUのAIに関するフレームワーク by 経産省
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/2021_001_05_00.pdf欧州AI規制の4段階リスクは、1.許容できないリスク、2.ハイリスク、3.限定リスク、4.最小リスク。OpenAIは第三者機関の監査を受けるハイリスク認定を避け、透明性表示義務のみを負う限定リスクと認定されたいと思われます。
しかし、汎用的なAIであるChatGPTは用途を絞れないので、ハイリスクと認定されやすいでしょう。加えて、生成AIに対する新たな規制修正案が提示されています。だから規制当局とどのような議論があったか注目されています。
それが「新たなAI規制を順守できなければ、オープンAIはEUでの「事業を停止する」可能性がある」の発言意図でしょう。少し脅しに近いニュアンスも感じます。
もし、ChatGPTがハイリスク認定されたら、他の汎用的なチャット型LLMもすべてハイリスクです。欧州のLLM活用が停滞しかねません。
例えば、人材採用評価に使うとハイリスクです。「この業務経歴を評価して」という質問だけを弾けば良いというものではありません。あらゆるシチュエーションを考えねばいけません。それは技術的には実質不可能です。不適切表現のフィルタリングとは本質的に異なりますから。
逆に言えば、欧州AI規制はまだ汎用的AIに対する答えを持っていないとも言えます。その意味では、欧州の折り合いの付け方は日本でも参考になるでしょう。
【追記】
Sugibuchi Tsuyoshiさんのコメントにある記事に、欧州AI規制の修正点と各方面のコメントがまとめられていました。その中で、最も気になったのが、
「EUは利益よりも人々を、支配よりも自由を、ディストピアよりも尊厳を優先する用意があることを示しています。」
欧州の人権に対する確固たる考え、不利益を被っても人権や尊厳を守る、が垣間見られます。信念の問題なので簡単には決着はつきそうもありません。OpenAIがEUで使えなくなるようなことが起これば、EUにおけるAI開発や事業展開の遅れを招く可能性もあり、経済的発展の遅れにもつながります。この発言は、OpenAIが対応しないこともあり得るという姿勢を見せることで、過度な規制を牽制する狙いがあると思われます。