OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」
AI要約
- 1米OpenAIで人間よりもはるかに賢いAI「Superintelligence」の制御を目指して結成されたSuperalignmentチームのトップ、ヤン・ライケ氏が退社
- 2Superalignmentチームはライケ氏と、共同創業者でチーフサイエンティストのイリヤ・サツケバー氏が率いてきた
- 3ライケ氏はOpenAIに対し、AGIの重要さを訴え、退社理由について警鐘を鳴らした
コメント
注目のコメント
OpenAI製品の安全性担保を担当していたライケ氏は「超知能(AGI)の構築は本質的に危険な取り組み」であり、「OpenAIは人類全体に大きな責任を担っている」が
「安全性が輝かしい製品の開発より後回しになっている」と警鐘を鳴らす。
最新のテクノロジー開発を進める上で、安全性を優先することができないのは人間の本能的なもの。
ましてや世界のテクノロジー開発競争は国の安全確保にも繋がっていますから。他国とのテクノロジー競争に勝つことは、軍事安全、国家主権の維持、テロ対策に直結しています。
安全性を優先できる理性の高い人類なら、原爆は開発されていないと思います…OpenAIが展開するChatGPTをはじめとした様々なサービスは、完璧な製品として仕上がっているものではなく、ある意味で実験的な状態なまま世界中に広がっていることは事実だと感じます。
ハルシネーションや情報操作、著作権の問題、プライバシー侵害、情報流出、データバイアスによる人権問題など、これらの課題は有効な解決策が施されないまま市場浸透が進んでしまっています。(AIという技術の特性上、完全な解決も難しい)
これまでの技術革新を顧みれば、新しい技術を受け入れるには、リスクを受け入れることもある程度は必要なのかもしれませんが、リスクが上回る状況に陥ることは回避すべきに間違いありません。
ライケ氏がこうしたリスク回避に向けて営利追及派との闘いに挑み、歯止めとなっていたとすれば、今般の同氏の「限界」退職は、OpenAIだけでなく我々への影響も大きなものになります。
OpenAIの今後のリスク対策方針にはより注視が必要な状況だと感じます。