イーロン・マスク氏らとの声明とはニュアンスが違いますね〜。 少なくともAI研究や開発を止めるものではなさそうです。 「無茶な進め方をするのはよくないこと」だという警告を発して、AI開発に否定的な人々の反発をかわすことが目的でしょうか?
AIによる絶滅のリスクというのは具体的にどのようなシナリオを想定しているのだろう。 SF的な世界なのか、もっと具体的にリスクと感じているものがあるのか気になる。
核と同様に危険ならなぜ開発、実用化してしまったんですかね。 どの口が言うんだという関係者が大勢いそう。
マイニュースに代わりフォローを今後利用しますか