• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

Intel、科学研究向けに最大1兆パラメータの生成AI「Aurora genAI」を開発

TEXAL
101
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

注目のコメント

  • badge
    三菱総合研究所 執行役員兼研究理事 生成AIラボセンター長

    インテルから驚きの1兆パラメータのLLM 「Aurora genAI」。しかも、最初からアカデミック用途に学習済みとのこと。

    製造業や製薬業では、論文調査に多大なコストと手間をかけています。加えて最近では、シミュレーションベースの材料設計、分子設計が増えています。だからテキストだけでなく、分子構造なども学習しているはずです。研究の加速に不可欠なツールとなりそうです。

    逆に言えば、AIを使いこなせないと開発競争に置いてゆかれるのは怖い話です。


  • ユーザベース SPEEDAアナリスト

    パラメータ数は気になるのだが、一方で最近話題になっているGoogle社員からのリーク文章とされている下記の記事では、オープンソースの凄さに言及している。
    そのなかで「They are doing things with $100 and 13B params that we struggle with at $10M and 540B. And they are doing so in weeks, not months.」(我々が1000万ドル・5400億パラメータでやっていることを、100ドル・130億パラメータでやっていて、それも月単位ではなく週単位でやっている)、「Giant models are slowing us down. In the long run, the best models are the ones which can be iterated upon quickly. We should make small variants more than an afterthought, now that we know what is possible in the <20B parameter regime.」(巨大なモデルが私たちから早さを奪っている。長期的にベストなモデルは、繰り返しを素早くできるものだ。200億以下のパラメータでできることが分かってきたのだから、思い付きではなく変数を少なくしていくべきだ)という言及があった。

    https://www.semianalysis.com/p/google-we-have-no-moat-and-neither


  • badge
    東京大学 大学院工学系研究科 航空宇宙工学専攻 教授

    7, 8年前頃に話題になった「エクサスケールの衝撃」 https://amzn.to/2U007Q1 が来ましたかね。
    https://newspicks.com/news/3761230?ref=user_2112738
    ここからの加速は凄まじいでしょう。

    【追記】ついに人工知能はエクサスケールコンピュータを手に入れたということか.人間の脳の処理能力に到達.


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか