Anna Tong Jeffrey Dastin Krystal Hu

[22日 ロイター] - 対話型人工知能(AI)「チャットGPT」を開発した米新興企業オープンAIが先週末にサム・アルトマン最高経営責任者(CEO)を解任するのに先立ち、社内の研究者数名が、人類を脅かす可能性のある強力なAIの発見について警告する書簡を取締役会に送っていたことが関係者の話で分かった。

書簡や新たなAIアルゴリズムのことは、これまで報道されていなかったが、関係筋はアルトマン氏解任前の重要な動きだったとした。

アルトマン氏は、オープンAIの顔としてChatGPTの成長と普及に取り組み、汎用AI(AGI)に近づくためにマイクロソフトから出資を取り付けた。先週のアジア太平洋経済協力会議(APEC)首脳会議では、重要な進歩が視野に入ったと示唆していた。

関係筋によると、研究者の書簡は、ビジネス路線を走るアルトマン氏に対する取締役会の不満や懸念を反映していた。

研究者は、AIの優れた能力と潜在的な危険性を指摘した。具体的な内容は不明だが、研究者はかねて「AIサイエンティスト」チームの研究を取り上げている。このチームは、「コード・ジェン(Code Gen)」と「数学ジェン(Math Gen)」と呼ばれるチームを統合したもので、既存のAIモデルを最適化して論理的思考を向上させ最終的に科学的な仕事をこなす方法を探求しているという。

オープンAIは、ロイターの問い合わせに対しコメント差し控えたが、関係筋によるとその後、社員向けメッセージで「Q*(Qスター)」と呼ばれるプロジェクトと書簡のことを認めた。

オープンAI内では、QスターがAGIを目指す同社のブレークスルーになり得るとの見方が一部にあるという。オープンAIはAGIを、経済的に価値のあるタスクの大半で人間を凌駕する自律型システムと定義している。

関係筋によると、その新モデルは膨大な演算リソースを与えられば一定の数学の問題を解くことができる。解けるのは小学生レベルの問題だが、研究者は、問題を解けたことを受け、Qスターの将来の成功を非常に楽観視するようになったという。

ロイターは、研究者が主張するQスターの能力を検証できていない。