• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

ユーザー困惑。「感情丸出し」なAIチャットの不気味さ

NewsPicks編集部
471
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

注目のコメント

  • NewsPicks 副編集長

    何かと話題に事欠かないAIチャットボットですが、いま話題を呼んでいるのが、マイクロソフトの検索エンジン「Bing」に新たに搭載されたチャットボットの、奇妙に生々しい「人間らしさ」です。

    ユーザーを「無礼で迷惑なやつ」と叱ったり、果ては執拗にユーザーに愛を迫ったりと、一見笑い話のようではありますが、実際に体験した人々からは「気持ちが悪い」とクレーム続出。AIチャットボットの潜在的なリスクに十分に備えていたはずのマイクロソフトが、想定外のなりゆきに手を焼いている様子をNYTがリポートします。

    同紙のテックコラムニスト、ケビン・ルース記者が体験したBingとのやりとりの全文も読み応えあり。絵文字の多さが不気味さに拍車をかけています。
    https://www.nytimes.com/2023/02/16/technology/bing-chatbot-transcript.html


  • badge
    NCB Lab. 代表

    生成AIの初期段階では、こういうことも起きるでしょう。スタート時に前のめりにならないことが大切です。オープンにすることで、進化は早まりますが、リスクも高まる。ある程度クローズドな環境で、まずは精度を上げ、不具合を修正するのが常套手段です。

    愛を告白などということが起きるなんて、ステキです。


  • 東京大学 中国思想文化学研究室助教

    そもそも自分以外の他人について、その人に「感情がある」と判断する理由は何でしょうか? その人が、自分と同じような状況で自分と同じような反応をするから、自分と同じように「感情がある」と判断しているのではないでしょうか。
    究極のところ、その人自身になることはできないので、本当に「感情がある」ことを確認することはできません。

    逆に、タンパク質で組成されたニューロン・ネットワーク以外のものが「感情を持たない」と判断されるのは何故でしょうか? 半導体の回路で人間らしい回答を行うAIは、その背後で動いているロジックは確かに人間の認知機能とは全く異なるものですが、それは必ず「感情を持たない」ものなのか? 「自我」が宿っていないと言えるのか??

    意識や感情とは何か。突き詰めれば独我論にもなり得ますし、あるいは逆に汎神論になるのかもしれません。

    かつてはSF上の設定や哲学上の思考実験に過ぎなかった、AIが「私には感情があります」と自己申告する問題が、もはや現実になりつつあります。
    果たして我々はどのように考えるべきなのでしょうか。今後どのような哲学や価値観を構築すべきなのか。場合によっては「AIにも人権(人工知能権?)を!」等という話にもなるかもしれませんね。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか