OpenAI、退社したライケ氏のAGI警鐘に応じるも具体策は明示せず
コメント
注目のコメント
「具体策は明示せず」とありますが、ライケ氏の"限界"退職の発表から昨日の今日ですから、パフォーマンス止まりのコメントに留まっても仕方なく、その点を批判しても前進はなさそうです。
むしろ重要なのは今後で、ブロックマン氏はその対策として
①拡張性のある監視ソリューション
②密接なフィードバックループ
③厳格なテスト
を挙げています。読み取り方によっては、①はサービス展開後の対策、②はモデル学習時点での対策、③ローンチ前時点での対策をそれぞれ指していると捉えられ、開発〜サービス展開までの全般に渡って対策を打とうという意思を感じられます。
AIという技術は、挙動を完全にプログラム化したソフトウェアとは異なり、そのアジャイルな特性上、事前にリスクを洗い出すことは不可能で、出てきた問題点に対して後追いで調整・修正を施すしかない部分がどうしてもあります。
そのため、(リスク対策の責任者を退職に追い込んでしまった同社を擁護をするつもりはないですが)現段階ではここまでの声明になっても仕方ない部分は理解できます。
一方、今回の件、私たちの責任も見返すべきだと感じています。ChatGPTだけでなくAIという技術は、上記の特性から実験的な状態でサービスがローンチされることを避けられません。
ある意味、OpenAIの大規模な実証実験に乗っかってしまっているのは私たち自身であり、その輝かしい性能に目を向けすぎている点は否めません。市場の高すぎる期待が同社を営利方面になびかせている一要因にはなっているはずで、私たち自身がよりリスクに敏感になることで、正しい技術のあり方を同社にフィードバックしていくことが重要なはずです。
私たちは単なる利用者ではなく、その利用を通してAIの今後の在り方を決める開発者の一員になっていることを、改めて思い出すべきなのかもしれません。ブロックマン氏 (OpenAI社長) はAIのバックグラウンドがないので、具体的な戦略について語れないのは、それはそうだよねという感じですね
ちなみにイリヤ氏やヒントン氏(AI界のゴッドファーザー)は安全重視派ですが、近年のAIの権威者であるアンドリュー氏は規制しすぎるより開発進めた方が社会のためになると主張してたりします。必ずしも「規制=安全性の考慮」ではありませんが、参考までに。退職合意書があろうと、AI倫理上の公益的な危険性を批判することで不利益を被らないようにするのは、AI規制に加えても良い気がします。
公益通報は欧米の方が進んでいるようです。日本では公益通報者保護法です。これらにAI倫理も加える形が一つの方法かもしれません。ただ、AI規制は禁止法ではなくガイドラインなので、どこまで認めるか基準が難しいでしょう。