生成AI対策で監査・認証制度、政府検討へ…開発・提供者の透明性向上図る
読売新聞
107Picks
コメント
注目のコメント
実力のある個人開発者が認証されず、実力はないけどルールを守るのだけ得意な大企業が認証されるのが少し心配。認証を取るには体力が必要ですから。
実態に即した認証制度になると良いですね。EUと米国の間を取り持つスタンスでしょう。リスクベースという先行するEUのAI規制の枠組みをベースに、米国が最重要視する透明性にまずは焦点を当てたように見えます。
リスクをどのように分類するか、実効性のある監査・認証を誰が担うか、が今後のポイントになりそうです。様々な用途が考えられる中、リスクベース・アプローチは現実的な方向性だと思いますが、そのリスクをどのような基準でレベル分けするのかが引き続き議論のポイントになりそうです。
「機械学習天国」と呼ばれるほどの良くも悪くも緩和的に日本のスタンスを保つのか、EUや米国のように厳格な基準で設定するのか、またそれぞれをどのような規制内容とするのかは、これからの検討次第というところです。
ところで、G7サミットで国際ルール策定を主導する機会があったにも関わらず、結果として欧米諸国に先を越され、それらの内容に引っ張られているようにも見え、ややモヤモヤ感が否めない感じではあります。。