人工知能のブームにより、新しいデータセンターが驚くべき速度で建設されています。これにより、サーバーを運転・冷却するための膨大な電力需要が生じています。生成型AIの発展には大量の電力と水資源が必要であり、アメリカの老朽化した電力網がこの負荷に耐えられるかが問題となっています。
Arm社の自動車部門の責任者であるDipti Vachani氏は、電力問題を異なる視点で考えなければ、生成型AIの夢を実現することはできないと指摘しています。Arm社の低消費電力プロセッサーは、データセンターでの電力使用量を最大15%削減できるため、Google、Microsoft、Oracle、Amazonなどのハイパースケーラー企業に非常に人気があります。
Nvidiaの最新のAIチップ「Grace Blackwell」は、ArmベースのCPUを採用しており、前世代製品に比べて25倍少ない電力で生成型AIモデルを運転することができます。このような省エネルギー戦略は「ワット当たりの作業量を増やす」と呼ばれ、AIエネルギー危機への一つの解決策となっていますが、まだ十分ではありません。
Goldman Sachsの報告によると、ChatGPTの1回のクエリは通常のGoogle検索の約10倍のエネルギーを消費します。AI画像を生成するには、スマートフォンを充電するのと同じくらいの電力が必要です。2019年の推計では、大規模な言語モデルを訓練することで、ガソリン車5台の生涯に相当する二酸化炭素が排出されるとされています。
データセンターを建設するハイパースケーラー企業も排出量の増加に直面しています。Googleの最新の環境報告書によると、2019年から2023年の間に温室効果ガス排出量が約50%増加しました。これは部分的にデータセンターの電力消費によるものです。Microsoftの排出量も2020年から2024年の間に約30%増加しました。
カンザスシティでは、MetaがAIに特化したデータセンターを建設しており、その電力需要は非常に高いため、石炭火力発電所の閉鎖計画が保留となっています。世界には8000を超えるデータセンターがあり、その集中度が最も高いのはアメリカです。Boston Consulting Groupの推計によると、データセンターの需要は毎年15%から20%増加し、2030年にはアメリカの総電力消費量の16%を占めるとされています。
Vantageデータセンターの北米およびAPAC担当執行副社長であるJeff Tench氏は、AI特定のアプリケーションによる需要は、これまでのクラウドコンピューティングによる需要と同等以上になると予測しています。多くの大手テクノロジー企業は、Vantageのような企業と契約してサーバーをホスティングしています。Vantageのデータセンターは通常、64メガワット以上の電力を使用する能力があり、これは数万世帯の電力消費量に相当します。
カリフォルニア州サンタクララでは、現地の電力会社の電力供給不足により、北カリフォルニアでのデータセンター建設のペースが遅れています。Vantageはオハイオ州、テキサス州、ジョージア州で新しいキャンパスを建設しています。Tench氏は、産業界が再生可能エネルギーに近接する場所を探しており、インセンティブプログラムの一環として石炭火力発電所を天然ガスに転換する方法や、核施設から電力を取得する方法を模索していると述べています。
一部のAI企業やデータセンターは、現地での発電方法を模索しています。OpenAIのCEOであるSam Altman氏は、この必要性について明言しており、最近ではパネルと電力貯蔵を備えたコンテナサイズのモジュールを製造する太陽光発電のスタートアップに投資しました。また、Altman氏は、小型核反応炉をAフレーム構造に収めることを目指す核分裂スタートアップOkloと核融合スタートアップHelionにも投資しています。
Microsoftは昨年、2028年にHelionから核融合電力を購入する契約を結びました。Googleは、次のプラントが地下からの電力で大型データセンターを運営するのに十分な電力を確保するという地熱発電のスタートアップと提携しています。Vantageは最近、バージニア州でデータセンターを完全に電力網から切り離して運営する100メガワットの天然ガス発電所を建設しました。
老朽化した電力網は、発電量が十分であっても負荷を処理する能力が不足していることが多いです。ボトルネックは発電所から消費地への電力輸送にあります。解決策の一つは、数百マイルまたは数千マイルの送電線を追加することです。これは非常に高価で時間がかかり、時にはコストが公共料金の値上げとして住民に転嫁されることもあります。
VIE TechnologiesのCEOであるRahul Chaturvedi氏によると、全ての発電された電力は変圧器を通過しなければならないため、予測ソフトウェアを使用して電力網の最も弱いポイントの一つである変圧器の故障を減少させることがもう一つの解決策です。アメリカには6000万から8000万台の変圧器があり、平均寿命は38年です。これにより、電力中断の一般的な原因となっています。
Ren氏の研究によると、生成型AIデータセンターは2027年までに冷却を維持するために42億から66億立方メートルの水を必要とします。この数字は、英国の年間総用水量の半分を上回ります。水の大部分は蒸発冷却に使用されますが、Vantageのサンタクララデータセンターには、水を消費せずに建物を冷却する大型空調設備があります。もう一つの解決策は、液体を使用してチップを直接冷却することです。しかし、これは大規模な改造を必要とします。
Apple、Samsung、Qualcommなどの企業は、消費電力の多いクエリをクラウド外に留め、電力不足のデータセンターを避けるために、デバイス上でAIを実行するメリットを強調しています。Tench氏は、AIの発展はデータセンターが支えることができる範囲に制約されるが、多くの人々がこれらの供給制約を解消する方法を見つけるために取り組んでいると述べています。
生成型AIの発展は、電力と水資源という二重の課題に直面しています。膨大な需要を満たしながら持続可能な発展を実現する方法を業界全体で解決する必要があります。
オリジナル記事、著者:AIの番人,転載の際には、出典を明記してください:https://nipponai.jp/article/ai-energy-electric-water/