西田宗千佳のイマトミライ

第280回

急速に増加する「AIデータセンター」電力消費 拡大する「ARMの価値」

生成AIの拡大に伴うデータセンター需要の拡大は、IT業界だけでなく多くの業界に「特需」を巻き起こしている。

第二次トランプ政権における雇用拡大・利益分散策の1つとしていることは、以前も本連載で解説した。

ただ、生成AI向けデータセンターの拡大は、まだまだ大きな課題を抱えたまま進んでいる。

その核にあるのが「電力需要の拡大」である。

コストの点でもサステナビリティの面でも、電力消費は抑えるべきではあるが、現状、データセンター向け消費は拡大を続けており、減少する気配を見せない。

ただ、電力と演算力需要のバランスの中で、「いまのままで先に進めるのか」という疑問を感じる人々も多い。

その中には、「AIで先行するライバルを、消費電力という観点で攻める」という半導体メーカーもいる。

今回は「AIと消費電力と半導体」という視点、特に半導体メーカーがどう動いているのか、という話を俯瞰してみたい。

「電力危機」も想定される「AIデータセンター」需要

「自分たちで使う電力は自分たちで作ってみようじゃないかという気持ち」

2月10日に開かれたソフトバンクの2025年3月期第3四半期決算会見で、同社の宮川潤一社長はそう話した。これは、AIデータセンター拡張に伴い、電力需要が急拡大していることを受けてのものだ。

AIデータセンターと電力需要について語る、ソフトバンクの宮川潤一社長

生成AIの利用拡大に伴い、各社が頭を悩ませているのが「電力消費の急増」だ。

生成AI以前と以後とでは、データセンターの電力消費は数倍に増えたと見られている。

国際エネルギー機関(IEA)が2024年1月に公開した試算によれば、2022年に全世界で約460TWhだったデータセンター関連の電力消費量は、2026年に最大1,050TWhに達する、とされた。

同じくIEAのデータによれば、日本の年間電力消費量は、2020年のデータで約987TWhだ。だから、2026年には世界中のデータセンターが、日本が消費する電力量すべてに匹敵する……と想定できるわけだ。

一般論として、日本におけるデータセンターの電力消費は、全体の1%以下とされてきた。だがこの比率も上昇傾向にある。

宮川社長は決算会見で「データセンターを作ることで、その(データセンターがある)都市の電力を喪失してしまうのではないか」と懸念を語った。

以下は、ソフトバンクが資源エネルギー庁に公開した資料からの抜粋である。

2020年までのデータセンターに対し、2025年以降の、AIを活用するデータセンターは20倍の電力が必要と見積もられている。

ソフトバンクが資源エネルギー庁に公開した資料より。同社の予測では、AIでデータセンターの電力需要は20倍になる

そして2040年までの試算でも、「仮に省エネ効率が100倍になったとしても」という前提でも、22倍の電力が必要とされている。

ソフトバンクが資源エネルギー庁に公開した資料より。仮に効率が100倍上がったとしても、2040年までの20年で電力需要は22倍に

「北海道苫小牧市では300MW、大阪府堺市では250MWを予定している」と宮川社長は言う。もちろんそれだけの電力を手配できる前提での計画なのだが、地域の電力供給量とコスト自体が劇的に向上しないと、地域の電力が不足する自体が考えられる。宮川社長がいう「自らが使う分は自ら作ることも」という話は、最悪の事態に備えてのことでもあるのだ。

AIエージェント時代に電力消費は拡大

2月3日に開催されたソフトバンク・グループとOpenAIの説明会には、ARMのレネ・ハースCEOも登壇した。

ARMのレネ・ハースCEO

ソフトバンク・グループの一員としての役割もあるが、同時に彼がアピールしたかったのは、「AIエージェントの時代には、さらに電力効率のよい処理が求められる」ということだ。

ハースCEOは「AIエージェント時代にはより高い処理効率が重要」と説く

現在はどこの生成AIサービスも、1つのモデルで1つの処理を行なうのではなく、複数回・多段的に考察して知見を高めるアプローチが主流になってきている。

OpenAIも「o1」以降アプローチは完全にその流れで、Deep Researchもそうなっている。GPT-5以降ではoシリーズと統合されることもアナウンスされた。

Perplexityも「Deep Research機能」をアナウンスしており、流れはOpenAIに限った話ではない。

考えてみればシンプルな話である。

データセンター向けの電力負荷=処理負荷が高まるというのは、生成AIのモデル大型化に伴うものだけではない。多層化すれ負荷はその分上がる。Deep Research系機能が高コストなのはそのためだ。

AIエージェントの時代になると、1つの質問・命令に対して複数の作業が紐付く。そうなると、1つの生成AIモデルを処理する負荷が高まった影響だけでなく、複数のAIの影響で処理負荷が高まる。

DeepSeek R1で「学習や利用の負荷が低いらしい」という話が話題になった。「負荷が高まるなら現在の投資は過大なのではないか」という論があったが、それは楽観的すぎる。

仮に1つの生成AIの処理負荷が減っても、生成AIが多層的に考察を繰り返すならば、そしてAIエージェント時代になるなら簡単に負荷は減らない。AIを使ったサービスが発展途上である以上、「減った分だけ処理負荷を上げられる」と考え、当面負荷は上がり続けるだろう。

AI専用半導体の増加はARMの需要を拡大

処理負荷が当面高まっていくとしても、それがそのまま消費電力の増大につながるのは避けたい。

従来ITの世界では、半導体の処理効率向上や電力効率向上が同時に進んだため、データセンターの消費電力向上も一定の範囲におさまってきた。

しかし、GPUをベースとした処理が中心になる生成AI向けのデータセンターとなると、GPUの規模増大・性能アップが効率アップをはるかに上回っているため、前述のように急激な電力需要増大につながっている。

ではどうすべきか?

ここで出てくるのが「GPU依存からの脱却」である。以前本連載でも触れたが、今回はまた別の視点から考えてみよう。

AIでGPUが必要になるのは、CPUよりも粒度の低い=シンプルな演算を、大量に繰り返し行なう必然性があるからだ。CPUはGPUに比べ並列性が低く、GPUの方がAIには向いている。実のところ、GPUの構造はグラフィックのために作られたものだが、それがAIにも向いていたため、結果としてGPUのニーズが高まっている。

だが、GPUが必須な処理と、もっと別のプロセッサーでもできることは分け、効率を高める必然性にも迫られている。

そのために色々な企業が「AI処理を効率化する専用プロセッサー」の開発を続けている。

昨年末、AWS(アマゾン・ウェブ・サービス)はAI専用半導体「Trainium2」の活用戦略を発表した。データセンター大手は、どこも同様の戦略を進めている。

そうした専用プロセッサーでは、よりAI向けにシンプル化した大量の演算器とともにCPUコアを混載させたものになっている。

そうしたプロセッサーを独自に開発する際に使われることが多いのが「ARMコア」だ。

クラウドサービスでアームテクノロジーの浸透が加速(ソフトバンクグループ2005年度3月期 第3四半期決算発表資料から)

ARMには「ソフト開発情報とノウハウが普及している」「独自半導体を設計しやすい」という特徴がある。スマートフォン向けのプロセッサーの多くがARMコアで作られているのもそのためだが、AI向けでもその特徴は有用だ。

OpenAIはAI専用半導体を設計中で、今後導入を予定している。

ソフトバンク・グループとOpenAIのイベントにARMのハースCEOが登壇したのは、NVIDIAのGPUサーバーでARMコアが使われているから、という点が大きいが、同時に、OpenAIが今後使うAI専用半導体でARMコアが使われるから……とも考えられる。

OpenAIとARMの関係は重要、とハースCEOは強調

また、ARMは設計提供だけでなく、「ARMが設計した半導体」の供給も検討していると言われている。MetaがそのAI専用半導体を採用する……との報道もある。

Metaは数年前から「AI推論用半導体」の開発を進めており、何度か技術発表を行なっている。その流れからいえば、膨大な推論処理のためにARMとともに専用半導体を開発して導入する、という可能性は高いと考える。

個人向けは別の流れだが「半導体カスタマイズ」の需要は高い

これらの大きな動きは、ほとんどが「データセンター向け」のものだ。

プロセッサーやGPUというと、我々はPCやスマートフォンを思い浮かべる。そしてアーキテクチャに共通項があることから、シンプルに連動性があるように感じてしまう。

しかし実際には、サーバー向けとクライアント向けは商品性が全く異なる。過去のデータセンター向け以上に、AI向けは劇的に変わってきた。データセンター向けの省電力化・パフォーマンス向上の工夫は、コンシューマ向けとは地続きではない。

おそらく今後は、「オンデバイスAIの性能を含めたコンシューマ機器向け」「ローカルでの開発向け」「サーバー向け」がそれぞれ作られ、さらに最適化が進むものと思われる。

その観点で見ると、半導体を「いかに用途に合わせて多様に作るか」が大きなカギとなってくる。

前述のように、インテルはAIサーバー向けに割って入る力が弱く、それが株価低迷につながっている。

現在は細かく機能ブロックに分け、組み合わせて構成する実装手法である「チップレット」が一般化している。インテルにしてもAMDにしてもこの手法でプロセッサー設計を多様化している。

昨今のインテル製品の多様化については、笠原一輝氏の以下の記事で詳細が説明されている。

こうした部分を活かし、いかに幅広いニーズを満たす製品を用意するかは重要なことだ。

他方で大量のニーズを抱えた顧客は、CPUコアの選定から構造まで、細かく自らで設計と選定を行なった上で、「自社設計したプロセッサーを導入する」ことが求められもいる。

コンシューマ向けデバイスの世界では、カスタマイズと数量のバランスの中でどう立ち回るかが重要であり、ゲーム機やスマートフォンではそのパターンが目立ち、「ARMコアによる独自開発SoC」「AMDによるカスタムSoC」が支持されているのは間違いない。

Windows PCでもSnapdragon Xシリーズ搭載製品は増えている。安心感としてインテルかAMDを……というのは分かるが、ゲームをのぞくと「意外なほど差が小さくなっている」というのが筆者の感想でもある。

マイクロソフトが個人向けでさらにARM系を推し、Qualcomm以外へも幅を広げる可能性は十分にある。

仮にそうなったとして、PCを中心とした個人向けプロセッサー搭載機器の世界がどうなるのか?

このあたりはまだ予断を許さない部分でもある。

西田 宗千佳

1971年福井県生まれ。フリージャーナリスト。得意ジャンルは、パソコン・デジタルAV・家電、そしてネットワーク関連など「電気かデータが流れるもの全般」。主に、取材記事と個人向け解説記事を担当。朝日新聞、読売新聞、日本経済新聞、AERA、週刊東洋経済、週刊現代、GetNavi、モノマガジンなどに寄稿する他、テレビ番組・雑誌などの監修も手がける。 近著に、「生成AIの核心」 (NHK出版新書)、「メタバース×ビジネス革命」( SBクリエイティブ)、「デジタルトランスフォーメーションで何が起きるのか」(講談社)などがある。
 メールマガジン「小寺・西田の『マンデーランチビュッフェ』」を小寺信良氏と共同で配信中。 Xは@mnishi41