生成AIの消費電力、全人類のAIアプリケーション利用に必要なのは原発2基
コメント
選択しているユーザー
この記事は、AIの消費電力の少なさを扱った記事だと思います。
AIのトレーニングは、誤差逆伝搬法で何度も勾配を計算しながら最適な重みづけを探索する探索過程で、これはそれなりに電力がかかるものの、一度だけの工程、
いわばイニシャルコストです。
一度トレーニングが済んだあとの推論過程は、学習した重み付けを用いてひたすら行列計算を実行するようなもので、トレーニングに比べると計算量自体は微々たるものです。
今回推定されたのが、このランニングコストが全人類が使ったとしても原発2基分、ということでした。
生成AIの生み出す生産性を考えると破格に少ないのではないでしょうか。
注目のコメント
生成AIの全人類の推論に必要なのはわずか原発2基分2GWあれば足りる。一方、GPT-4学習1回には86GWhが必要とのこと。
もうすぐデータ不足に陥ると指摘しています。しかし、これは生成AIがデータを生成したシミュレータで自己学習することと、実環境で強化学習することで乗り越えてゆくと予想します。
そうなると消費電力は桁違いに増大します。AIが自己学習のために、電力とAIサーバを買い占める懸念があります。これがアルトマン氏解任を仕掛けた効果的利他主義派が考える、AIを人類滅亡への脅威シナリオの一つです。推論にすぎない数値ですが、仮想通貨と同じく、生成AIも膨大なエネルギーが必要ということを示す記事。
これから消費エネルギーの少ない技術が開発されていくだろうということですが、環境負荷が目に見えにくいものだからこそ、こういった情報が多くの人の目にとまり、課題意識が共有され、イノベーションが触発される必要があると思います。電力はまかなえる。だが、次世代AIモデルの学習には10倍のデータが必要となるが、もうネット上のデータは全部使われていて足りない、という指摘が重要。
これまでクローズドだったデータをいかに掘り起こし活用できるようにするか、オープンデータがますます大事になります。