米バイデン政権 AIの安全性に関する新基準などの大統領令公表
コメント
注目のコメント
米政府が発表した大統領令の方針は、これまでOpenAI、Google、Meta、AnthropicなどAI開発大手と協議しながら進めてきたこともあって、企業への罰則案が見送られるなど、企業側に配慮した内容になっているようです。
米国と並んでAI規制の国際標準を狙うEUがかなり厳格なルールを施行していることに対して、米国はAI産業側・技術側で自国各 企業が実質的に市場を牽引していることもあって、そこまで強い規制を掛けることは産業競争・技術競争でマイナスになるとの判断もあるのかもしれません。
その一方で、来年には大統領戦を控えるバイデン大統領にとっては、何かとネガティブな話題も呼んでいるAIを野放しにするような方向性も取れず、企業側に影響がない範囲での厳格化を探った結果が、今回の大統領令の内容になっているように想像しています。
真意はわかりませんし、具体はこれからですが、非常に政治的というか、様々な方面への影響に配慮された発表内容になっていることを感じます。
本件については、こちらの記事も詳しいです→https://www.nikkei.com/article/DGXZQOGN301180Q3A031C2000000/政府が実質的にどこまで評価できるかですね。
生成AIプレーヤーのOpenAI, Google, Metaなどは、さまざまな専門家を集めた「レッドチーム」を組織し、生成AIの安全性の評価・改善をしています。その上で、政府がさらに踏み込んだ評価をするのか注目。
OpenAI、「レッドチーム」を立ち上げ--AIのリスク管理強化に向け専門家を募集
https://japan.zdnet.com/article/35209344/私が評価したいのは、リスクの高いモデルにおいては開発過程を共有することを求めるとしたことです。深層学習アルゴリズムの特徴として、AIそのものの説明可能性が低いことはやむを得ないのが現実。開発プロセスが、出来上がったモデルの特性を決定づけるという前提に立てば、ずさんな開発をする開発者に責任を問うことができる。