Bing AIが壊れる原因は「相手に合わせすぎる性格」「会話が長いと混乱」、マイクロソフトが報告
コメント
選択しているユーザー
新BING。おもしろくなってきましたね。
まだ順番待ち状態なので使えませんが、使えるようになったら、メインのブラウザも検索エンジンもマイクロソフトに変わってしまうかもしれません。
注目のコメント
> スポーツの試合経過など非常にタイムリーなデータが必要な場合はまだ課題がある
なるほどです。経験をもとにした解説など、タイムリーに変わっていく状態を判断し、分析、考察することができることが人間なのかもしれませんね。
> 使いやすさ、試しやすさは初期段階における成功
AppleがiPhoneを初めて発表した時のスキューモフィズムを思い出しますね。チャットボットで慣れていることで、容易に試すことができました。
ビジネス的にはサービスの競争がありますが、一研究結果として見る分には非常に興味深く、このような研究結果的な共有はAI業界全体を盛り上がりますよね。新しいBing。日常業務や壁打ちでフル活用していましたが昨日(2023/02/17)から壁打ちをしていると下記の表示が出るようになりました。
> Sorry, it looks like I need to chat about something else. Click “New topic,” please!
「会話が長いと混乱」に対してMicrosoftが対策を施したのかも知れません。記事にある下記の「毎日毎週のリリース」での「改善」でしょうか。
>ロードの遅さやリンク切れ、フォーマットの誤りといった不具合は毎日毎週のリリースで改善してゆく、
「長い会話を強制終了」ではなく「会話が長くても混乱しない」今後の改善に期待。
長丁場の壁打ちでも混乱しないならば、有料になったとしても課金する価値が新しいBingにはあると思います。