生成AIの誤情報(幻覚)生成を防ぐNvidiaの新技術。 既に脱獄「ジェイルブレイク」を介して、犯罪に悪用され始めているとのこと。パイプ爆弾やコカイン精製法を調べたみたいです。知識がない若者でも、簡単に気軽に情報にアクセスできてしまうのは問題です。 幻覚はセキュリティ問題であるとして、かなり厳格に対処が求められそうです。出口の生成時の対処も大事ですが、学習データセットのスクリーニングも必要になりそうです。目視では無理なので、スクリーニングにLLMを使う技術が必要です。学習コストがさらにかさみ悩ましい。
マイニュースに代わりフォローを今後利用しますか