ユヴァル・ノア・ハラリ「人類がAIの脅威を生き延びられるかどうかわからない」
コメント
選択しているユーザー
ハラリ氏の教養には敬意を払うが、
彼の意見で世の中のすべてが動くわけではない、
ということを忘れてはいけません。
人間の認知限界を超える数のパラメータを扱うことができるAIは地球上における人類の位置づけを相対化することは明らかで、それを人類が止めようとして規制を導入するのは、不遜な行為だと私は思う。
人間はたかだか10や20のパラメータを扱ってものごとを考える生き物で、それに対しAIは1750億個のパラメータを扱うことができる(GPT3)、という動かしがたい事実を認めることからすべての議論を始める必要がある。
人間は、いつまでも絶対的な存在であるわけではなく。傲慢であってはならないと私は思います。
注目のコメント
もともとサピエンス全史の巻末も人類への警鐘で終わっており、彼の主張はある意味一貫していますよね。
生命工学、サイボーグ工学、非有機的生命工学(AI)、どの工学が発展しても「サピエンスとはなにか」「富の拡大に意味はあるのか」「幸福とはなにか」という問いにたどりつく、というのが彼の主張だったと記憶しています。
彼の言葉をそのまま借りれば、認知革命の一つのような気がしており、貨幣→国家→宗教といったフィクションの次にくるのがAIなのかもしれません。サピエンス全史のハラリ氏が生成AIに警鐘を鳴らしています。生成AIは自ら権力を握り、世論を言語操作できる存在となると。それは民主主義のディストピアである。全体主義国家では独裁者が支配に使うと。だから医薬品同様にAI規制が必要とのこと。
私は生成AIが自律的に世論操作するとは今のところ考えていません。ただし、民主国家でも権力者が世論操作に使う誘惑に負けることはあるかと。だから開発提供を規制するのではなく、利用を規制すべきでしょう。「情報ダイエット」中のハラリ氏のAIに対する警鐘は、私にはあまりリアルに聞こえませんでした。「AIが歴史上初めて、自ら意思決定が可能な技術であるという点をまず理解する必要がある」としていますが、実際そうでしょうか?
大規模言語モデルは質問に対して驚くほど気の利いた答えをしてくれますが、自律的に意思決定をするようになるにはまだいくつものブレイクスルーが必要です。ましてや「医薬品が長々とした規制プロセスを経ずに、AIツールによって世の中に放たれる」ような仕組みはつくられないでしょう。
AIが人類の脅威になる可能性は私も真剣に考えないといけないと思うのですが、どのような過程を経てそれが起こってしまうのかを示さず、いたずらに警鐘を鳴らすことは、さまざまな難課題の解決や効率化の可能性を秘めた技術の活用の機会を奪ってしまうだけでは無いでしょうか?