アマゾンやMSが「殺人AI開発で世界を危険に」 調査報告
コメント
注目のコメント
AIに嫌われて攻撃されませんように 「マイクロソフトやアマゾンのような企業はなぜ、大きな論争の的となっているこれらの兵器を開発していることを否定しないのか。こうした兵器は、人間の直接の関与なしに自己決定に基づいて人々を殺害できてしまう」と、報告書をまとめたフランク・シュライパー(Frank Slijper)氏は述べている。
AIを搭載した兵器システムが攻撃目標を自律的に選択・攻撃できるようになる点をめぐっては近年、倫理的な観点から議論が活発になっている。AI兵器は国際安全保障を脅かし、火薬、原子爆弾に次ぐ「第3の戦争革命」をもたらすと警鐘を鳴らす声もある。難しいのはアマゾンやMSが米国国防省の依頼での開発をやめても、ロシア、中国は当然のように開発を続けること。AI兵器は人間兵士の犠牲を劇的に減らせるだけに、その技術のあるなしで軍事力に大きな差ができてしまう。なければ有事には、自軍の兵士が敵のAI兵器でバタバタ殺されることになる。私自身は殺人AIなどとんでもないとは思うが、もはや開発を止めるのは不可能なのではないか。開発を本当にストップさせるにはロシアと中国にもやめさせねばならないが、誰にそれができるだろう。
ゾルディック家に生まれてきても、生まれた瞬間から「殺し屋」と言う訳ではない(ハンター×ハンター知らない人ごめんなさい)。
育っていく過程の教育、情報、環境、バグ、が、人を作っていく。で、どうしようもないのがバグである。未知のウィルスに感染するとか、事故で組織が壊れるとか、生まれる前から遺伝子異常で感情が欠落しているとか、日々の細胞の破壊と合成の工程で癌化して免疫で抑えきれないとか、いろんな不可抗力によって、元の状態とは違う状態に持っていかれる。
人間に寄せてきた精密機械のAIでバグが起こらない保証はない。どんな機械にも不良品が混じってしまうように、AIの、ある1つの部品が不良品で、それがバグの引き金になる可能性はある。イコール殺人かどうかは別問題。が制御が利かない、人間を襲わないという設定が外れる、洗脳される、ぐらいのことは、普通に想定される。AIと人間。そこに差があると思っているのは今の時代の幻想。