AI研究の第一人者ヒントン氏、グーグルを退社「危険性話すため」
コメント
注目のコメント
<追記>Nakajimaさんが張られている下記のヒントン教授への1か月前のインタビュー、とても面白く是非見ていただきたい(有難うございます!)
冒頭でのChatGPTの衝撃について、ChatGPT自体は驚きではなく(GPT2の方が驚きだった)、大衆の反応が驚きだったということ。また20分くらいからがまた面白く、脳の効率についての話(これはAlphaGoが勝った時に誰かが言っていてとても印象に残っている)や、GoogleはMSよりコンサバで、MSがリリースしたのは(良くも悪くも)勇気があったということ。
色々「分からない」と発言されているが、コンピューターが自分でアイディアを想像する未来はくるのではないか、など。
https://www.youtube.com/watch?v=qpoRO378qRY
<追記終>
ディープラーニングを開発したAI研究者のヒントン氏が、技術進化への倫理的な懸念から、GoogleのAIリサーチ部門から辞任。
ヒントン氏やその系譜につながる研究・研究者については、NPの2019年の「AIカナダ」連載で深堀されているので、併せてご参照いただきたい。
https://newspicks.com/user/9670
Google / AlphabetのAI研究部門とDeepMindの統合が、先日発表された(下記)。
そこでのコメントにつながるが、これまでGoogleはDeepMind含めてAI研究者にかなりの自由度を与えていたと思う。DeepMindのトップのデミス・ハサビスが、1月のTime誌でのインタビューで「早く動きすぎて物事を壊してしまうことを避けるほうを支持する」という発言もしている。
一方で、ChatGPT含めた現在のLLMの勃興に寄与した「Attention Is All You Need」はGoogleの研究者が出した論文だが、その筆者たちはほとんどGoogleにいない状態。
Googleのスタンスの変化を受て、DeepMindやGoogleにいた研究者がどう動くかに注目していたが、早速動きが出てきた。
https://newspicks.com/news/8365042
※下記英語記事からコメント転載
https://newspicks.com/news/8405787ヒントン氏がここまでの行動を起こすのは凄いなあ……と思いつつ、最近のAI関係の発言は何を信じればいいか分からなくなってしまった。「6か月開発を停止しよう」って言ってたイーロンマスク氏は裏でAI開発の準備を進めていたし、発言じゃなくて今後の行動を見ないと真意が分からないなあ、と思ってしまうようになってしまった。
AIによって世の中が大きく変わって、おそらく損する人もたくさんいる中で、「AIの生みの親」みたいなポジションの人は、色々怖いだろうなあ、というのは容易に想像できる。未知の技術が登場すると将来不安が駆り立てられるというのはいつの時代も同じことのように思います。
やや辛辣かもしれませんが、今の生成AIをめぐる騒動は、"火"を恐れることと同じような気がしていて、「火力を強くすると火事になるから、料理をするのはやめた方がいい!」くらいの最悪のケースのみを想定した様相に見えます。
AIも火も、確かにリスク要素を持っていることは間違いのない事実ではありますが、その火力をコントロールすることも可能ですし、安全装置を付けることも可能なはずです。
世界的な権威であるヒントン氏がこうした形で警鐘を鳴らしたことは重要なメッセージですが、それに流されるように「生成AIは使うべからず!」と禁制をかけることは、個人的には違うと思っています。
この警鐘を踏まえ、生成AIをどうコントロールしながら使っていくのか、安全装置たるルールをどう作るかを考えるべきで、これをしなければAIという技術と共に歩む成長は失われるはずです。