• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

東大松尾研、日英対応の大規模言語モデル公開 100億パラメータ、精度は「国内オープンソース最高水準」

299
Picks
このまま本文を読む
本文を読む

コメント


選択しているユーザー

  • 株式会社トラベルテックラボ 代表取締役

    東京大学の松尾研究室が、日英の2カ国語に対応した100億パラメータの大規模言語モデル「Weblab-10B」を開発し、非商用ライセンスで無料公開した。

    このモデルは、英語と日本語のデータセットを用い、日本語の精度を高めるための知識転移を行うのが特徴であり、その精度は「国内オープンソースモデルとして最高水準」とされている。

    日本の安全保障上、AIの開発は極めて重要な課題となっています。この「Weblab-10B」は、日本発の技術力の高さを世界に示す素晴らしい一歩です。

    他国に依存することなく、自国での開発を進めることは、技術の独立性を保ち、国の安全を確保する上で不可欠です。

    専門用語の「知識転移」とは、ある言語で学習した知識を別の言語に適用する技術のことです。これにより、日本語の精度を高めることが可能となります。

    今後も、このような先進的な研究が日本から世界に発信され、国際社会での競争力を高める一助となることを切に願います。


注目のコメント

  • badge
    三菱総合研究所 執行役員兼研究理事 生成AIラボセンター長

    松尾研の10Bは是非試したいです!対話モデルもありますね。データセットを明記されたこと、ベンチマークを公表したことが素晴らしいです。ただ、非商用なのが残念。

    英語データセットも併せて学習すると、精度が向上することは知られていましたが、これほどとは驚きです。


  • badge
    AI企業 旅する魔法使い

    学術界が公開できるのは、商用不可で100億パラメータというのが基準になりますね。

    既存の国内オープンソースは、パラメータ数が少ないので、単純比較は難しい。そして、産業界は、自社の競争力を維持しつつ、市場を盛り上げたいので、商用可だけど少ないパラメータ数で公開しがち。

    誰がどの精度で商用可/不可で公開するかは、ゲーム理論的な展開になりそうです。


  • エネルギーアナリスト/ポスト石油戦略研究所代表

    パラメータ数競争

    世界
    1兆2000億 GLaM/Google
    1兆850億 PanGu-Σ/Huawai
    5400億 PaLM/Google
    2800億 Gopher/DeepMind
    2600億 Ernie 3.0 Titan/Baidu
    1750億 ChatGPT 3/OpenAI
    650億 LLaMA/Meta

    日本語系
    400億 NICT(国立研究開発法人情報通信研究機構)
    130億 NEC LLM/NEC
    100億 Weblab-10B/松尾研
    68億 OpenCALM/サイバーエージェント
    36億 Rinna-3.6B/Rinna
    36億 japanese-large-lm/LINE

    パラメータ数だけで評価はできないですね。アーキテクチャわコーパス数も大事。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか