米AI大統領令はスタートアップにどう影響するのか

2023年11月2日
全体に公開

10月30日に、米バイデン大統領は安心・安全で信頼できるAIの開発を推進すべく、大統領令を発令しました

11月1日からイギリスで世界初のAI安全サミットが開催されるため、米国が世界で先頭に立つべく、このタイミングとなったのです。

大統領令で定められた安全性の基準は、AIスタートアップが新たなサービスを開発、リリースする際に幅広く影響を及ぼす可能性があります。また、EUでも規則案の協議が行われており、日本企業にも影響がある見込みです。

詳しくみていきましょう。

☕️coffee break

昨年11月にChatGPTがリリースされて以来、AI分野に多額の資金が投じられ、スタートアップが相次いでプロダクトを開発してきました。

すでに2023年に入ってから、米国だけで新たに8社のAIユニコーンが誕生しています。

激動のAI開発の波は労働者の生産性を向上させ、人間の生活をも変える可能性がある一方で、背後には悪用やプライバシー問題などのリスクを抱えています。

バイデン政権が、AIの規制に向けて動き始めたのは2023年5月。

Google、Microsoft、OpenAI、AnthropicのCEOをホワイトハウスに招き、AIのリスクについての会合が行われました。それ以来、バイデン大統領は主要なAI企業の経営陣と会談を重ねてきました。

9月中旬にはOpenAI、Google、Meta、Tesla、Microsoftなど、主要AI企業15社のCEOが出席する会議で具体的な規則案を提示したところ、全員が同意したことで、今回の大統領令につながりました。

当初検討していた罰則については見送られましたが、法的拘束力を持つ規則となっています。

今後は第二弾として、連邦議会の超党派議員が中心となって、数ヵ月以内にAI規制法案の策定が進められる予定です。

🍪もっとくわしく

今回の大統領令で適用される規則は大きく8つ。

スタートアップや研究者には政府のAI関連データの利用促進、助成金の増額などが行われることから、現時点ではポジティブな内容だと言えるのではないでしょうか。

8つの規則から、特にスタートアップに影響がありそうな項目をピックアップしました。

①AIの安全性とセキュリティ

  • AIモデルのトレーニングをする前に連邦政府に共有することを義務付け
  • 国立標準技術研究所(NIST)が、AIシステムの一般公開前にレッドチーム(組織とは独立してセキュリティの脆弱性などを検証)のテスト基準を設定し、テストの結果報告を義務付け
  • ライフサイエンス企業が合成生物学スクリーニングを実施する際の新たな基準を設け、生物材料を操作するリスクから保護する
  • 商務省がAI生成コンテンツに明確なラベル付けをするため、認証基準を設ける

②アメリカ人のプライバシーを守る

  • 政府は超党派に全てのアメリカ人、特に子供を保護するためのデータプライバシー法案を可決するよう求め、プライバシー保護の研究開発などに資金を提供する

③公平性と公民権の推進

  • AIアルゴリズムが差別を招かないよう、ガイダンスを設けるとともに司法省と連携して、司法制度全体の公平性を確保する

④消費者、患者、学生を保護する

  • ヘルスケアにおける責任あるAIの利用を推進すべく、安全プログラムを設ける
  • 学校での個別指導など、AI活用の教育ツールを導入する教育者をサポートするリソースを確保する

⑤働く人をサポートする

  • AIによる雇用機会喪失リスクを軽減すべく、労働基準や公平性についてのガイドラインを策定する

⑥イノベーションと競争の促進

  • AI研究者や学生が主要なAIリソース・データにアクセスできるようにするツール「National AI Research Resource」を通じて、AI研究を促進。ヘルスケア・気候変動分野などでのAI活用の助成金を拡大する
  • 大手企業によって競争環境が妨げられていないか、米連邦取引委員会(FTC)が監視を行うとともに起業家や中小企業の事業展開を支援して、公平でオープンなAIエコシステムを促進する
  • 重要な分野で専門知識を有する移民が米国での滞在・就学・就労をことをしやすくなるよう、ビザの基準・面接・審査を見直す

⑦海外におけるアメリカ人のリーダーシップ向上

  • 他国との連携を強化し、安全・安心・信頼できるAIの開発と展開を促進する

⑧政府が積極的に安全なAIの導入を行う

  • 政府機関での積極的なAI活用に向けて、導入のガイダンスを策定する
  • 政府機関のあらゆるレベルの従業員にAIトレーニング・プログラムを提供する

現時点では、禁止や制限ではなく、安全性の確保と適切な競争促進に重点が置かれていますが、今後規則が展開されていく上では注意が必要です。

例えば、規則の適用に対応するには様々なコストがかかるため、大手企業に比べ、リソースの限られたスタートアップにとっては大きな負担となります。

🍫ちなみに

EUでも包括的なAI規制案の協議を行っており、年内の大筋合意を目指しています。

特徴としては、リスクベースでの規則を策定し、加盟国には統一ルールを直接適用しようとしていることです。

4つのリスク段階に応じて、規制内容が変わります。

  • 許容できないリスク→禁止
  • リスクが高い→規制
  • 限定的なリスク→透明性の義務
  • 最小限のリスク→規則なし

規則に違反した場合は最大で4,000万ユーロ(約63億円)、もしくは全世界売上高の7%のどちらか高い方が制裁金として課される予定です。

これらはEU全体での統一ルールであるため、日本企業がEU圏内で、AIサービスを展開する場合にも適用されます。

次回は12月上旬に欧州議会、欧州委員会、EU加盟国の三者会合が開催されるため、動向には要注目です。

サムネイル画像:DALL·E 3での生成

応援ありがとうございます!
いいねして著者を応援してみませんか



このトピックスについて
樋口 真章さん、他9347人がフォローしています