「生成AI向け」で大儲けしているエヌビディアの半導体は何がすごいのか | 「GAFAM+エヌビディア」の時代到来?
コメント
注目のコメント
エヌビディアの半導体は、最先端技術をふんだんに盛り込んで高集積化している部分に強みがあります。
クーリエ・ジャポンの記事において、最新iPhoneの5倍に当たる800億のトランジスタを内蔵しているという話が出ています。
「半導体製品のトランジスタ集積率は1年半〜2年ごとに2倍になる」というムーアの法則を目にしたことがある方もいらっしゃると思います。
これまで半導体の世界ではこの法則になんとか喰らいつく形で技術進化が進んできました。
しかし加工しなければならないサイズが原子数個レベルにまで到達し、現時点ではこれ以上の集積化が難しくなっているのが正直なところです。
実はこの課題は1つの半導体チップを1つの加工技術で全部作ろうとするからこそ発生するものです。
例えば画用紙に絵を書いて色を塗る場合、広い面積は太い筆で、細かいところは細い筆で色を塗ります。
半導体の加工もこれと同じで、広い面積の半導体チップの全部を2nmレベルの最先端回路描画技術(=細い筆)で回路形成する必要はなく、メモリなどは多少大きめの回路描画技術(=太い筆)で回路を作っても製品としては成り立つわけです。
実はこういった異集積技術はヘテロジニアスインテグレーションと呼ばれており、AMD EPYC, Intel Data Center GPU Max, NVIDIA H100 GPUなどのサーバー向け各種プロセッサではすでに当たり前の技術として導入されています。
家庭用PCでも、藤井聡太棋士もお気に入りのAMD Ryzenシリーズで採用されており、実は私たちの身の回りでも使われていたりします。
CPUといえばIntelという方もいらっしゃるかと思いますが、家庭用PCではAMDの方が技術的には進んでいたりするのは興味深いですよね。
エヌビディアはAIスーパーコンピューティングデータセンター向けGPUであるTesla P100においてもこの異集積技術をふんだんに盛り込んでおり、技術面で業界を牽引している点が強みであると感じています。
【参考】NVIDIA Tesla P100
https://www.nvidia.com/ja-jp/data-center/tesla-p100/
中段のCoWoSのくだりが異集積技術に関する文言ですチップ単独でみたらAMDのGPUとそこまで差がついているわけではないです。
https://www.top500.org/lists/top500/2023/06/
https://www.top500.org/lists/green500/2023/06/
ソフトウェア環境の整備がそれよりも大きいです。
https://ja.wikipedia.org/wiki/CUDA
CPUは最も汎用で、GPUは特定の種類の計算を高速で実行できますが、まだある程度汎用性があります。
ある特定の一つの計算が重要と分かってきたらそれに完全に特化したチップを作るという方向性もあり、チップ自体がどれだけ数がはけるかということも関係するのですが、一概にNVIDIAが絶対有利とはいえません。(例えば、GPT-4のような大規模言語モデルならTransformerの学習部分が重要になりますのでそれに完全に特化したチップを作るという方向性はあるわけです。)
半導体プロセスの改善が鈍化し、使われるアルゴリズムの多様性が必要とされなくなるほど専用チップの優位性があらわれやすくなります。GAFAMとかFANNGとかの括りで話す記事は中身を全然理解していない。gglとapplとamznとmsは別格、エヌビディアは経路が違う。ページビュー稼ぎにメタとかネトフリを同列に扱うアホらしさにいい加減気づいてほしい。
セールスフォースやスノーフレーク、オクタ、なんかも上四つと違う、単なるsaas事業者。