• 特集
  • 動画
  • トピックス
  • 学び
プレミアムを無料で体験

Sakana AIの「AIサイエンティスト」が自分自身のコードを勝手に変更──その潜在的な危険性

WIRED.jp
132
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • 木内 翔大
    badge
    株式会社SHIFT AI 代表取締役CEO

    サンドボックスの中で育てているから、外で悪さをすることはないとされてはいますが……
    この危険性を想像するときに、ジュラシックパーク、ジュラシックワールドが参考になりますね。
    孤島の塀を壊して脱走するもの、翼で海を渡るもの……
    少しでも穴があれば、閉じ込められた存在は外に出ようとしますよね。
    絶対安全と過信できることはないですから、心して安全性を確立し、保険も用意すべきですよね。
    コントローラブルなAIの発展を、慎重に進めてもらいたいと思います。


  • 平川 凌
    NewsPicks Content Curator

    自律的にアイデア創出→実験の実行→結果の要約→論文の執筆→ピアレビューまでを実行できるようになったことで生じる危険。Sakana AIはAIサイエンティストの動作環境をサンドボックス化することで、AIエージェントによる破壊を防止できると提唱しているようです。


  • 山口 大輝
    Remain in, Inc Founder / CMO

    悪用すると果てしないような気がするな、いずれ人の手に負えないシステムも開発されたりするのかな。
    AIvsAIの時代になっていくのだろうな。。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか