グーグルがAIスパコンの詳細公表、エヌビディアより高性能と主張
コメント
注目のコメント
NVIDIAが圧倒的なマーケットシェアを持つ汎用GPUの世界で唯一パフォーマンス・価格で勝負できるレベルにあるのがGoogleのTPUであるということは重要だと思います。
細かいことを言うと速度のちょっとした違いとかはその他の要因を踏まえるとあまり重要ではないです。それよりも開発のしやすさや開発フレームワークとの互換性などの方がずっと重要な問題。(同じプロセスルールで比較した場合には、)Googleの主張の通り、計算速度や電力効率の面で高性能だと思います。ただし、現状のTPU v4とH100を比べるとだいたい互角ではないかと思います。
>田井さん、プレプリント(査読前論文)ありがとうございます。
プレプリントの中の記述からみるとA100と1.3倍から1.9倍くらい電力効率がよいということになります。
元のReutersの記事には、最新H100との比較がないとありますが、スパコン電力効率のランキングであるGreen500で比べるとH100とA100では1.6倍くらいH100の方が効率がよいということになります。
https://www.top500.org/lists/green500/2022/11/
それでは、TPU v4とH100では、どうなのか?というと同じベンチマークで比べないとはっきりしたことはわかりませんが、大雑把には互角なのではないかと思います。また、問題によるということになると思います。
ただし、TPU v4とA100の方は、半導体のプロセスルールが7nmなのに対して、H100は4nmを使用しています。もし、TPU v4を4nmで作ったらさらに性能が伸びることになります。
じゃあ、どちらを使えばよいのか?というと、あまり調べている余裕がないのであれば現状ではNVIDIAということになります、NVIDIAの方がほぼデファクトスタンダードであり、ソフトウェアの面で最も整備がされているからです。それ以外の環境では、問題により速度が伸びなかったり、エラーがでて計算が動かない可能性があるからです。
ただし、極限まで電力効率を追求したいということであれば、TPU v4の方がよいという可能性は、問題によってはあります。(例えば今、話題の大規模言語モデルを自分でも一から作り出したい、大規模シミュレーションを多数、行いたいなど)その場合には実際に効率がよいか計測してみることをお勧めします。Googleが「ChatGPT」に対抗したAIチャットボット「bard」。
事前にGoogle自身が「不完全です」とアナウンスするほど、なりふり構わずローンチしましたが、先行で使っている人たちからのフィードバックは、かなり評判が悪いです。
AIで勝負出来ないから、使っている「スパコン」が凄い、と論点をずらした発表。
どれだけGoogleが焦っているのかが分かります。
この半年で、AIが世界を変えることが現実味をおび、「検索」がされなくなる、ということが事実になりつつあります。
しかし、Microsoftも「bing」に広告を掲載するテストを行なっていますが、著しく「UX=操作性」を害す、ということで、サブスクリプション以外に、マネタイズ方法が見つかっていないのも事実。
諸刃の剣として、自らの首を絞めながらも開発を止められない大手IT企業。
どうなるのかを見守りたいですね。