Microsoft、Anthropic、Google、OpenAI、AIモデルの安全かつ責任ある開発を確保するための業界団体を設立

2023年7月28日
全体に公開

Microsoft、Anthropic、Google、OpenAIは2023年7月26日 、フロンティアAIモデルの安全かつ責任ある開発を確保することに焦点を当てた新たな業界団体であるFrontier Model Forumの設立を発表しました。

本フォーラムでは、Frontier Model(フロンティアモデル)を、現存する最も先進的なモデルを超える能力を持つ大規模な機械学習モデルと定義しています。

本フォーラムでは、会員企業の技術的・運用的な専門知識を活用して、全体のAIエコシステムに利益をもたらすことを目指しています。

参加にあたっては、フロンティアモデルの開発や、フロンティアモデルの安全性への強いコミットメント、共同イニシアティブなどへの参加を通じて、フロンティアAIモデルの安全かつ責任ある開発を確保するための協力を行っていくことのできる企業を対象としています。

Frontier Model Forumで目指すこと

本フォーラムの主な目標は以下の通りです。

  • フロンティアモデルの責任ある開発を推進し、リスクを最小化し、能力と安全性の独立した標準化された評価を可能にするためのAI安全性研究を進める。
  • フロンティアモデルの責任ある開発と展開のベストプラクティスを特定し、公衆が技術の性質、能力、制限、影響を理解するのを助ける。
  • 政策立案者、学者、市民社会、企業と協力して、信頼と安全性のリスクについての知識を共有する。
  • 気候変動の緩和と適応、早期のがん検出と予防、サイバー脅威の対策など、社会の最大の課題を解決するためのアプリケーションの開発を支援する。

Frontier Model Forumでの取組

本フォーラムでは、AIが世界に利益をもたらす大きな可能性を持つ一方で、政府と業界は一体となって、リスクを軽減するための適切なガードレールへの対応をしていくことが必要であるとしています。

これらの取組は、すでに米国政府や英国政府、欧州連合、OECD、G7(広島AIプロセスを通じて)、などが重要な貢献をしてきたことを挙げています。

これをさらに推進するために、フロンティアAIモデルが責任ある方法で開発され、展開されることを確保するための安全性基準と評価についてさらなる作業が必要としています。

そのため、本フォーラムは、AIの安全性と責任に関する組織間の議論と行動の一つのアプローチを進めていく計画です。

3つの主要な領域

本フォーラムは、フロンティアAIモデルの安全かつ責任ある開発を支援するために、来年にかけて以下の3つの主要な領域に焦点をあてていくとしています。

  • ベストプラクティスの特定:
    業界、政府、市民社会、学界との間で知識の共有とベストプラクティスを推進し、さまざまな潜在的なリスクを軽減するための安全性基準と安全性の実践に焦点をあてる。
  • AI安全性研究の推進:
    AI安全性に関する最も重要なオープンリサーチの問題を特定することで、AI安全性のエコシステムを支援する。また、フロンティアAIモデルのための技術評価とベンチマークの公開ライブラリを開発し、共有する。
  • 企業と政府間の情報共有の促進
    企業、政府、関連するステークホルダー間でAIの安全性とリスクに関する情報を共有するための信頼できる、安全なメカニズムを確立する。

今後の取組について

本フォーラムでは、今後数ヶ月の間に、その戦略と優先事項を指導するためのアドバイザリーボードを設立する予定です。

創設メンバーであるFrontier Model Forumの企業は、憲章、ガバナンス、資金調達を含む主方針を決めるため、ワーキンググループとエグゼクティブボードを設立する予定です。

また、フォーラムの主催などを通じて、政府や業界団体、各ステークホルダーなどとの協力関係や対話も進めていく計画です。

応援ありがとうございます!
いいねして著者を応援してみませんか



このトピックスについて
樋口 真章さん、他1663人がフォローしています