• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention

note(ノート)
1
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • ユーザベース SPEEDAアナリスト

    数日前に発表され、英語では下記記事も出てきて、気になっている。
    人間でいうと、短期記憶と長期記憶を分けるAND組み合わせて、メモリパワープレー(とパワープレーの限界によるパフォーマンス上限)を回避し、メモリ上限をベースにパフォーマンスが落ちにくい最適化ができるということ?

    https://venturebeat.com/ai/googles-new-technique-gives-llms-infinite-context/

    論文自体はこちら。
    https://arxiv.org/abs/2404.07143


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか