• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

ChatGPT vs BERT:どちらが日本語をより理解できるのか?

Fintan
7
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • badge
    三菱総合研究所 執行役員兼研究理事 生成AIラボセンター長

    素晴らしい研究です。
    タスクによってはGPT最強ではなかったと同時に、やはりプロンプト改善で精度が上がるというのは重要な知見です。

    <以下、引用>
    日本語に対する言語理解能力を測るベンチマークであるJGLUEを用いて、ChatGPTの日本語に対する理解能力を定量的に評価してみました。その結果をBERTやRoBERTaなどのモデルをファインチューニングした場合と比べると、タスクによってはそれらのモデルを上回る性能を示すことがわかりました。また、高度なプロンプトを使うことで、性能改善の余地がありそうなこともわかりました。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか