オープンAI、安全性を評価する新たな委員会設立-社内チーム解散後
AI要約
- 1米オープンAIは、安全性とセキュリティを評価するための取締役委員会を設置した
- 2委員会は90日かけて技術の安全対策を評価し、報告書を提出する予定
- 3最近の動きや重要な人員の離脱により、AIの潜在的な危険性に対する懸念が高まっている
コメント
注目のコメント
AIは使う人によっては善にも悪にもなります。
ただ、常に中立な立場か。というと、学習したデータによっては悪にもなり得ます。
内部でその状況をしっかりと統制していく。公開して透明性を高めていく。
ブラックボックス状態のAIでは信用もできないため、信用できる体制をOpenAI社が整えていく宣言とも言えます。うーん、イリヤ・サツキバー氏退任やセキュリティチームが解散した後ですからね、必要な措置ですがどうしてもセールス優先のアルトマンをサポートするチームなんだろうなという印象が否めない。
安全性は主観(価値観・倫理)も入る。
設立することは当然必要だろうが、誰が選任されるか、ガバナンスや独立性と権限の設計(取締役会や事業執行と、どういう線・点で結び、何はできて何はできないか、等)次第。