2023/11/22

【ハラリが警告】いま最大のAIリスクは「破滅的な金融危機」

NewsPicksでは週7日毎日、世界のトレンドの背景を追う連載シリーズを開始しています。水曜日は「Wise Life(かしこく生きる)」です。
INDEX
  • AIと核兵器の決定的な違い
  • 問題をすべて予見することは不可能
  • 「理解できない金融商品」の怖さ
  • 規制の整備より「安全機関」が必要

AIと核兵器の決定的な違い

人工知能(AI)は「破滅的」な結果を伴う金融危機を引き起こす恐れがある──。イスラエルの歴史学者ユヴァル・ノア・ハラリがそんな警告を発している。
AIモデルの安全性テストは、強力なシステムが引き起こしうる問題のすべてを予見しているわけではないと、ハラリは懸念を示す。
核兵器とは異なり、AI危機には誰もが理解できる「単一の危険なシナリオ」は存在しないというのだ。
「AIの場合、危険なシナリオがたくさんある。その一つひとつが起こる可能性は比較的小さいが、それが合わさると.....文明の存続を脅かすものになる」
ベストセラー『サピエンス全史 文明の構造と人類の幸福』(邦訳・河出書房)の著者であるハラリは、AI開発に声高に懸念を表明してきた知識人の1人だ。
6月にスイスのジュネーブで開催されたAIサミット「AI  For Good」に登壇するハラリ(Johannes Simon/Getty Images)