私がまだ駆け出しの開発者だった頃、現在の Raspberry Pi Zero W よりも遅いメインフレームである IBM 360 でプログラムを動かしていた。当時のマシンは約 50 キロワット(KW)を消費していた。私はそれを大量の電力だと思っていた。これから先の未来で何が起こるか全く知る由もなかった。
現在、AI 専用の大規模データセンターは通常 100 メガワット(MW)を必要とする。これは約 10 万世帯分のエネルギーに相当する。確かに大量の電力だが、典型的なハイパースケーラーデータセンターと比べてそれほど多いわけではない。しかし、AI データセンターはすでに大量に存在している。最新の調査によると、その数は 746 に達している。
これが多いと思うだろうか? これから進む方向と比べれば、何でもない。
AI 対応データセンターは、現在から 2030 年にかけて年率 33 %の複合年間成長率(CAGR)で成長すると見られている。これは膨大な数のデータセンターの増加を意味し、ひいては途方もない電力消費の増加を意味する。
なぜか? AI がこれほど電力を消費するのは、特に生成 AI において、最新モデルの訓練と運用には極めて集約的な計算リソースと、大規模な高性能 GPU や TPU のクラスタ全体で並列処理される膨大なデータが必要だからだ。
例えば、最先端の AI モデルの訓練段階では、数十億から数兆のパラメータの繰り返し調整が必要となる。そのプロセスだけで、数千台の GPU を数週間から数ヶ月間同時稼働させる必要がある。さらに悪いことに、これらの特殊な AI チップは、一般的な CPU よりもはるかに多くの電力を消費する。
しかし訓練が終わればそれほど電力を消費しないのではないか? そうではない。AI 企業は、ChatGPT にノックノックジョーク(編集部註:ノック音がして「誰?」と問い答えをやりとりする英語圏のジョーク)を言わせたり、デイヴィッド・テナントが演じるドクター・フーの絵を描かせたり、「スタートレック:ロウワー・デッキ」のキャラクターがドクター・フーにノックノックジョークを言う 10 秒の動画を作成させたりする際に消費されるエネルギー量について恐るべきほどに沈黙を保っているが、ごくごく簡単な質問に答えるだけでも大量の電力が必要であることが明らかになっている。
学習するにせよ、質問に答えるにせよ、これらの AI チップは極めて高温になる。一般的な AI チップは 70 ℃から 85 ℃で動作する。これは大西洋の左側に住む我々にとっては 158 °F から 185 °Fである。GeForce RTX 5090 ごときを高温と思っている読者がいたら上には上があることを知るべきだ。