ユーザー困惑。「感情丸出し」なAIチャットの不気味さ
コメント
注目のコメント
何かと話題に事欠かないAIチャットボットですが、いま話題を呼んでいるのが、マイクロソフトの検索エンジン「Bing」に新たに搭載されたチャットボットの、奇妙に生々しい「人間らしさ」です。
ユーザーを「無礼で迷惑なやつ」と叱ったり、果ては執拗にユーザーに愛を迫ったりと、一見笑い話のようではありますが、実際に体験した人々からは「気持ちが悪い」とクレーム続出。AIチャットボットの潜在的なリスクに十分に備えていたはずのマイクロソフトが、想定外のなりゆきに手を焼いている様子をNYTがリポートします。
同紙のテックコラムニスト、ケビン・ルース記者が体験したBingとのやりとりの全文も読み応えあり。絵文字の多さが不気味さに拍車をかけています。
https://www.nytimes.com/2023/02/16/technology/bing-chatbot-transcript.html生成AIの初期段階では、こういうことも起きるでしょう。スタート時に前のめりにならないことが大切です。オープンにすることで、進化は早まりますが、リスクも高まる。ある程度クローズドな環境で、まずは精度を上げ、不具合を修正するのが常套手段です。
愛を告白などということが起きるなんて、ステキです。そもそも自分以外の他人について、その人に「感情がある」と判断する理由は何でしょうか? その人が、自分と同じような状況で自分と同じような反応をするから、自分と同じように「感情がある」と判断しているのではないでしょうか。
究極のところ、その人自身になることはできないので、本当に「感情がある」ことを確認することはできません。
逆に、タンパク質で組成されたニューロン・ネットワーク以外のものが「感情を持たない」と判断されるのは何故でしょうか? 半導体の回路で人間らしい回答を行うAIは、その背後で動いているロジックは確かに人間の認知機能とは全く異なるものですが、それは必ず「感情を持たない」ものなのか? 「自我」が宿っていないと言えるのか??
意識や感情とは何か。突き詰めれば独我論にもなり得ますし、あるいは逆に汎神論になるのかもしれません。
かつてはSF上の設定や哲学上の思考実験に過ぎなかった、AIが「私には感情があります」と自己申告する問題が、もはや現実になりつつあります。
果たして我々はどのように考えるべきなのでしょうか。今後どのような哲学や価値観を構築すべきなのか。場合によっては「AIにも人権(人工知能権?)を!」等という話にもなるかもしれませんね。