• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

どんなに長い文章でも破綻しない生成AI「StreamingLLM」、キャラクターの性格や話し方を模倣するAIなど重要論文5本を解説

137
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • badge
    三菱総合研究所 執行役員兼研究理事 生成AIラボセンター長

    長い文書を扱えるのは膨大な業務マニュアル等、企業では重要です。それだけでは無く、個人の情報つまりパーソナライズにとても有用でしょう。地道にLLMの実用性が高まっていることを感じます。


  • PLUS Co.,Ltd / GCMトレーディング 代表取締役 | 執行役員

    Large Language Models(LLM)は長文や専門的な業務マニュアルの処理において非常に有用で、これらのモデルは大規模なデータセットを学習し、幅広いトピックに対応できるため、企業の業務において様々な情報や文書を理解し、処理するのに適しています。
    また、LLMは個人情報を含む文書を効果的に処理できるため、パーソナライズされた情報提供やコミュニケーションにも利用できます。


  • 富士通株式会社 Japan Change Leader / GenerativeAI Advocate / DX Officer補佐

    LLMに関連した最新の研究が分かりやすくまとまっている良記事ですね。

    何より、LLMのトークン制限というのは思ったよりも出来ることを制限してしまうので、StreamingLLMには期待です。

    仮にGPT4が32Kトークンから4000Kトークンに拡張できたとしたら、100倍以上。
    超大量のデータをベクトルDBなしで取り扱えるので、利便性が上がるだけではなく実用でも出来る幅が広がります。

    個人的には、History Inputとして、「使えば使うほど自分になじんでくるLLM」みたいなものが実装できるようになってくるのでは、とか思ったりします。32Kではさすがに足らないし、ベクトルDBのような検索用途でも実現は困難です。

    他のところだと、MiniGPT-5の研究にも興味を持ちました。
    原著を読むと、T2I(テキストから画像を生成する)モデルのベンチマーク指標の構築に使えるのでは、と書かれていて、なるほどそういう使い方するのかと唸りました。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか