マスク氏ら、AI開発の一時停止訴え 「社会にリスク」
コメント
選択しているユーザー
端的に言えば、もう無理ですね。
既にLLMは亜種を含めて数十のブランチが派生してファインチューニングが進んでいます。より少ない計算リソースで精度の高いアウトプットが出るようなモデルも週ごとに更新されてリリースされています。
今まだその程度の派生に留まっているのは、LLMの学習に必要なリソース(データ・計算)がまだ膨大な規模だからです。膨大と言ってもGPT-3では数億円規模のクラウドリソースを費やしていたものが、現在はもうラックサーバ数台程度で可能な領域まで小さくなってきていますが。
FLIの人々の話してる事はちょっとずつ現実から乖離しはじめてると思います。前提としてる事が1年前、GPT-3が出てきた頃の情報を前提になっています。今起きている事をあえて「懸念」として未来を見据えるなら、もうちょっと違った形だと思います。
恐らく現在のような分かりやすいアウトプットを出せるようなクラウド型AIが驚異となることは無いでしょう。むしろ問題になるのは世界中のネットワーク上に分散した状態で保持されるマルウェアのような形のAIだと思います。開発リソースが指数関数的スピードで効率化してるので、来年か再来年くらいにはAIのような振舞いをするマルウェアが出てきてもおかしくないと思います。
【追記】
知らんけど
注目のコメント
当局の介入への言及がありますが、現に違法なことが行われているわけでもないので、介入する理屈が立たないでしょう。既存の法的規制の枠組で解決するのは難しいので、有力なプレイヤーによる共同自主規制のようなソフトロー的枠組で対処するしかないように思いますが、それだと抜け駆けを完全に防ぐことは無理ですね。
望ましいルール作り、ルールの実効性を担保する枠組作りなどを今すぐ始めるべきということだと思うのですが、これまた難易度の高いプロジェクトですね。非常に興味深いです。「マスク氏ら」というのが、他に誰が入っているかというと、スティーブ・ウォズニアック氏が入っていますね。
おおむね、AI関係の経営者や研究者が多いです。といっても、「AI関係」というのは、今や自動運転、画像認識、ロボティクス、製薬、他にも多岐に渡ります。
この声明で懸念されているのは汎用AI、いわゆるAGIの成立で、AIの成長が昨年から予想以上に速いので、いったん、6か月間、AIの学習を停止させよう、という呼びかけです。
「米国で停止してもその間に中国がAIの開発を進めるだけではないか」という反論も出ています。
https://futureoflife.org/open-letter/pause-giant-ai-experiments/数週間前にイーロン・マスクがAIの専門家に接触していると報道されたのはこの件でしょうかね。自分も設立に関わったOpen AIの凄さと影響力とスピードを自ら止めるとは。