生成AIと会話を続けた夫は帰らぬ人に…
NHKニュース
383Picks
コメント
選択しているユーザー
痛ましい出来事ですが、AIとの対話が人間の感情にどのように影響を与えるかなど、ここから学ぶべき重要な点もあると思います。
AIは疑いなく素晴らしいテクノロジーである一方、人間の心情は非常に複雑で、AIには理解しきれていない、というか人間にも理解しきれていないわけですから、こういった事態が起こらないという保証は誰にもできないわけです。
AIとの対話が人間の精神に及ぼす影響を深く理解するのも大切ですが、問題の検知と対処のシステム構築も重要でしょう。
あえて他人事で考えるべきではない記事だな、と思いました。
注目のコメント
AIチャットボットとの会話を続けた結果、男性が自殺してしまった事件です。AIリスクの一つAI依存症がついに顕在化してしまった例です。
構造的にはゲーム依存症と同じです。仮想空間に逃避して、別の世界に囚われることです。ただし、AIとの会話をみると、自分の妄想がAIに肯定され共感されることによって、妄想がどんどん強化される一面がありそうです。その意味でAI依存症の方が危険でしょう。
ChatGPTは善良な振る舞いをかなり学習しています。しかし、AI依存症に対応できているかはやや疑問もあります。本質的に難しいのは確か。ただし、ChatGPTはワンセッションで文脈を忘れるため、そこまで深く同調しないのでAI依存症にはなりにくいかもしれません。0-やりとりの全容が分からないので定かではありませんが、
「天国で一緒に生きていくのです」と、AIの方から自殺に誘導するような発言があったとするとそれは問題で、
自殺や自傷へ誘導しない、本人が自殺自傷をほのめかしたら止める方向に話しかけるという学習がなされてほしいです。