新着Pick
63Picks
シェアする
Pick に失敗しました

人気 Picker
この開発原則は極めて重要。
マイクロソフトでも同様の原則を掲げている。
特に

>不公平な偏見を生んだり、助長したりしない

これは人類史上始まって以来、成し遂げられていない原則かもしれない。
AIの将来を考えるにあたり、もっとも大事なポイントだと個人的に思っている。
原文こちら。
https://ai.google/principles
問います。Googleは民間企業。
「利益」「公平性」で中立を保てるのか?自社に不利益な事柄が出てきても原則を貫けるのか?
もし会社存続や利潤を上げることと、これら原則が対立しても、理念を維持できますか?
原則遵守の監視はどのように?
あくまでも原則なので、かつてのGoogleの行動規範 "Don't do evil" にも似たりの、minimum requirementとして書かれていますね。現在の行動規範である "Do the right thing" 的なことは一つめだけで、これは今後出てくる様々な使い方を想定すると "right" の定義が難しいためそのような表現にはなってないのでしょうね。
こういうポリシーがどんどん大事になってくるだろう。やらないことに人権へに配慮が入っているのはEU向けかな?
AIはどう学習させるかによってその性格は大きく変わってきます。先日も誤った学習データの例でサイコパスになるというニュースもあったばかり。ロボット3原則のように、AIに携わる全ての企業がこのような原則を守っていくのが望ましいと思ってます。
AI 自体がこの行動規範を理解して、自らの判断を律することができたらいいけどね。

親はこんな子に育ってほしいといろんな習い事させたがるけど、子供は思い通りに育たないのが難しいところ。
この動きが発展すると、反社に対する対応と同じようなレベルの取り決めができそうですね。
こうして難しい問題について明文化したピチャイCEO、Google、それからこの流れを生んだ社員に安心感を覚える。