OpenAI、AIの“壊滅的な”リスクに取り組む「Preparedness」チーム結成
コメント
注目のコメント
AIの加速を進める裏で、潤沢な予算で守りの準備を始めた様子。米国富豪が核シェルターを持っていると度々言われますが、こちらの体制構築もその恐れの地続きのようです。
とはいえAIが悪用されないための取り組みは人類としては逃れられないところでしょう。
悪意ある個人がAIを使う場合、どのような行為に走るかを有志からアンケートで集めているところが米国らしいオープンさです。対話生成だけでなく、音声、画像などのマルチモーダル化が一つのUI/プラットフォーム上で実現するにつれて、ユーザーの利便性は高まる一方、犯罪利用などのリスクも同時に高まっていきます。
先日発足したAnthropic、Google、Microsoft、OpenAIの4社によるフォーラム(Frontier Model Forum)は、まさにこうした将来的なリスク対策に開発企業が自ら乗り出すもので、歓迎すべき動きだと感じます。
ただ見方によっては違う景色も見えてきて、本来こうした安全策を講じてきた政府では、もはや統制のきかない、理解の及ばない次元にまで技術が進化してしまったこと、また、開発企業すらもリスクを想定できず、一般から公募することが効率的かつ現実的になっていることは、これまでの中央集権的な安全性確保・リスク対策の立てられ方とは大きく異なっています。
民主的という意味では良い面もありつつ、自己責任の高まりと、見えないリスクへの自己防衛が求められるようになってきていることを感じます。特に以下のようなカテゴリに注力するそうです👀
・出力結果による個人の判断力への影響(Individualized persuasion)
・サイバーセキュリティ
・化学、生物、放射線、核の脅威
・Autonomous replication and adaptation (ARA)
ARAは、ざっくりいうと、AI等が自身をコピーしたり環境の変化に合わせて自身を改良したりすることです。
1点目はわかりやすいようにちょっと意訳しました。
皆様、よい週末をお過ごしください◎
ーー
公式の発表:
https://openai.com/blog/frontier-risk-and-preparedness