“GPUのNVIDIA”がCPU製品「Grace」を投入、スパコンのAI性能が10倍に
コメント
注目のコメント
Nvidiaが発表したCPUのGraceについて、発表の資料のスクショ含めて端的な違いが分かりやすい。Grace同士がつながり、また他のGrace・メモリ・GPUとのつなぎ方が双方向になっていて、かつそこをNVLinkという規格で帯域を広げている。それによってメモリがボトルネックとならないようにしていて、それを求めるアプリケーションで効くということ。
想定しているのが機械学習用途でのサーバーで、学習モデルがどんどん複雑になっているから。下記もNvidiaの発表についての記事だが定量的には下記のような状況を踏まえて、それに適応したアーキテクチャを提供することで追い風としたいのだろう。CPU単体としてとらえるのではなく、機械学習用システムアーキテクチャーとして捉える方が正しい気がしている(NVLinkなど含め)。
『同社によれば、機械学習モデルの規模は拡大傾向にあり、特にNLPモデルではパラメーター数は2.5カ月ごとに2倍と指数関数的に増加しているという。例えばNLPモデルの1つである「GPT-3」の場合、既にパラメーター数は1000億を超えているとする。このペースで増加すれば、23年ごろまでに機械学習のパラメーター数は100兆に達するとみている。このような巨大なモデルを現在のコンピューターアーキテクチャーで学習させるとCPUやGPU、システムメモリーなどを接続するインターコネクトの速度がボトルネックになると指摘した。』
https://newspicks.com/news/5819969