電力研究所(EPRI)の新しいホワイトペーパー「知能の供給:人工知能とデータセンターのエネルギー消費の解析」によると、AIの電力需要が驚異的に増加することが明らかになりました。この35ページの報告書は、米国のデータセンターでのエネルギー消費が2030年までに現在の166%に達する可能性があると予測しています。
AIクエリは大幅な電力を消費
EPRIは、この増加の主因として、従来の検索エンジンよりも1クエリあたり圧倒的に多くのエネルギーを消費する生成AIを挙げています。具体的には、AIクエリはリクエストごとに約2.9ワット時を必要とし、典型的なGoogle検索(約0.3ワット時)の10倍のエネルギーを消費します。また、画像、音声、動画生成といった新たなアプリケーションも歴史的に前例のないエネルギー需要を生じさせています。
アプリケーションごとのエネルギー消費分析
この報告書では、Google検索やChatGPTなど、5つの主要なユースケースを分析しています。その中で、ChatGPTは最もエネルギーを消費しないAIクエリですが、Googleが同様のAI機能を検索に統合すると、検索1回あたりのエネルギー消費が6.9〜8.9ワット時に達する可能性があり、ChatGPTの3倍以上になると警告しています。
供給制約への予測
EPRIは、2023年から2030年にかけての米国データセンターの電力使用に関する4つの予測を示しており、成長率は低い場合で3.7%、高い場合で15%です。高成長シナリオでは、データセンターの電力使用量は2030年までに403.9テラワット時(TWh)に達し、2023年の水準から166%の増加を示します。低成長シナリオでも、電力使用量は196.3 TWhに29%の増加が見込まれています。
この成長の地理的分布には懸念があります。2023年には、15の州が全国のデータセンター負荷の80%を占めており、バージニア州がそのうち25%を占めています。高成長シナリオでは、2030年にはバージニア州の消費シェアが46%に達する可能性が示唆されています。
データセンターの種類によって需要に対する貢献度は異なりますが、企業データセンターが全体の20〜30%、コロケーションセンターおよびハイパースケールセンターが60〜70%を占めています。アマゾンやGoogleなどのクラウド巨人が運営するハイパースケール施設は、100〜1000メガワットの容量を持つ新しいセンターを展開し、80万軒の家庭に電力を供給する能力を誇っています。
データセンター調達戦略の転換
企業がNvidiaなどの主要ベンダーから最新のGPU搭載サーバーを確保しようとする中、課題はハードウェアの調達を超えています。これらのシステムの増大する電力需要は、データセンターのキャパシティの重要性を増しています。これは1999年のドットコムバブルの時代を彷彿とさせる状況です。
この現状を乗り越えるために、企業はハイパースケール競争者の戦略に対応する必要があります。アマゾンやGoogleのような企業は、電力供給者やオペレーターとの長期的な契約を通じて、データセンターのキャパシティを確保することを優先しています。
多くの企業が従来の「三社入札からの購入」モデルを見直す必要があるかもしれません。データセンターのキャパシティが制約される中、このアプローチは効果的でない可能性があります。そのため、企業はデータセンターの供給者との長期的なパートナーシップを探り、特定のキャパシティレベルを保証する見返りに資源への安定したアクセスを確保することが重要です。
ある業界幹部はこの傾向について、「多くのデータセンター機器供給業者は、以前のように提案依頼書(RFP)に反応していない。現在は、毎月または四半期ごとに特定のキャパシティを保証するモデルで運営している」と述べています。10年前には、その収益の100%が入札プロセスから来ていましたが、現在はその数値はわずか25%に減少しています。
企業のITリーダーにとって、この変化に対応するには戦略的な洞察とIT、施設、財務部門の協力が必要です。データセンターのインフラに今投資することは、短期的な利益の犠牲になったとしても、AI駆動の未来で競争力を維持するために不可欠です。