
【要約】
こちらの記事は『AIデータセンターは2029年にサーバ1台の電力が1MW超へ、システム構成はどうなる?』の要約です。
1. AIデータセンターの電力需要は爆発的に増大
- 最新GPUの消費電力は1個あたり1kW超、近く2kW以上に到達見込み
- AI用GPUの消費電力は約3.4カ月ごとに倍増
- データセンターの世界電力需要比率は
- 2022年:約2% → 2030年:約7%へ増加予測
- GPT-4の学習には約5万MWhの電力が必要で、CO₂排出量も深刻な課題
2. AIサーバラックの電力供給は段階的に進化
- 現在:1ラック当たり250kW未満
- 2026年以降:250kW超
- 2029年以降:1MW超が想定される
これに伴い、従来の電力供給構成は維持できなくなる。
3. 250kW超時代の電力変換システム構成
- PSUは単相→三相へ移行
- PSUやBBUはサーバラックから分離され「Power Side Racks」として配置
- 配電電圧は
- 従来:50V
- 将来:400Vまたは800V(±400V)へ昇圧
- ラック内では
- 高電圧IBC → 50V
- 低電圧IBC → 12V/6V
- VRM → GPU向け1V未満
という多段構成を採用
4. 電力密度・効率向上の鍵となる技術
- 垂直型電力供給(GPU直下実装)
- 損失を最大20% → 3%程度まで削減
- 基板面積も削減可能
- BBUは回路トポロジー刷新で
- 現在:12kW
- 将来:25kW対応へ
5. 1MW超時代:直流グリッドと再生可能エネルギーの統合
- 再生可能エネルギーをDCのまま直接利用する構成が重要に
- 必要となる技術:
- SST(半導体変圧器):双方向DC変換
- SSCB(半導体遮断器):高速DC遮断
- ここでは
- SST/SSCB:SiC(シリコンカーバイド)
- 高速スイッチング用途:GaN
- 従来用途:シリコンMOSFET
というハイブリッド構成が最適とされる
6. インフィニオンの狙い
- 電力効率:8~10%改善
- 電力密度:30~60%向上
- 全世界のデータセンターで同社製品を使えば
→ 年間2200万トンのCO₂削減が可能 - グリッドからGPU直下までをカバーするフルラインアップが強み
まとめ
AIデータセンターは「計算性能」だけでなく、「電力アーキテクチャそのもの」が主戦場となり、2029年に向けて高電圧DC化・SiC/GaN活用・再エネ直結グリッドへと大きく進化する。
更に詳しい記事を読みたい方はこちら
※当サイトでは商品・サービスのリンク先にプロモーションを含みます。ご了承ください。


