• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

Bing AIが壊れる原因は「相手に合わせすぎる性格」「会話が長いと混乱」、マイクロソフトが報告

133
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

選択しているユーザー

  • 某コンサル / 元・PTA会長 / 松坂世代 IT職

    その前にインビテーションが来ない。待ち行列が長い。


注目のコメント

  • Uzabase / NewsPicks デザイナー

    > スポーツの試合経過など非常にタイムリーなデータが必要な場合はまだ課題がある
    なるほどです。経験をもとにした解説など、タイムリーに変わっていく状態を判断し、分析、考察することができることが人間なのかもしれませんね。

    > 使いやすさ、試しやすさは初期段階における成功
    AppleがiPhoneを初めて発表した時のスキューモフィズムを思い出しますね。チャットボットで慣れていることで、容易に試すことができました。

    ビジネス的にはサービスの競争がありますが、一研究結果として見る分には非常に興味深く、このような研究結果的な共有はAI業界全体を盛り上がりますよね。


  • IT系 再雇用中

    まさに人間と一緒…(-_-)
     相手に合わせ過ぎて…。
     長々と中身の無いこと聞かされて…。
    壊れる原因の対処方法がAIに実装できたら人間にも応用できそうな予感…が…(^_^;


  • 週2回の健康運動ZUTTOWAKAI CEO

    新しいBing。日常業務や壁打ちでフル活用していましたが昨日(2023/02/17)から壁打ちをしていると下記の表示が出るようになりました。

    > Sorry, it looks like I need to chat about something else. Click “New topic,” please!

    「会話が長いと混乱」に対してMicrosoftが対策を施したのかも知れません。記事にある下記の「毎日毎週のリリース」での「改善」でしょうか。

    >ロードの遅さやリンク切れ、フォーマットの誤りといった不具合は毎日毎週のリリースで改善してゆく、

    「長い会話を強制終了」ではなく「会話が長くても混乱しない」今後の改善に期待。

    長丁場の壁打ちでも混乱しないならば、有料になったとしても課金する価値が新しいBingにはあると思います。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか