生成AIが広がるほど、データセンターは計算より先に熱で詰まりやすくなります。日本でも第7次エネルギー基本計画が「液体冷却技術」を名指しし、データセンターの省エネと競争力を結びつけました。液冷はサーバの冷却板だけでなく、ポンプ、熱交換器、チラー、配管、水処理までを含む総合システムです。本記事では、初学者でも説明できるレベルまで、仕組み・世界と日本の現状・主要論点を一次情報中心に整理します。
この記事の要点
第7次エネルギー基本計画は、データセンター等のエネルギー効率改善に向けて「液体冷却技術」を明示し、最先端半導体や光電融合と並ぶ支える付帯設備として位置づけています。
生成AIを支えるAIデータセンターは、電力を使うほど熱も増えるため、冷却が性能・コスト・立地のボトルネックになりやすく、空冷から液冷への移行が進んでいます。
液冷は「冷却板(コールドプレート)」だけで完結せず、CDU(冷却液分配ユニット)やポンプ、熱交換器、配管、冷却水系(チラー/冷却塔等)、そして水処理・漏えい検知までを含む熱のサプライチェーンです。
世界ではデータセンター電力消費が急増し、規制・情報公開(EUの報告制度など)も強まっています。日本でもPUE目標や情報公開の拡充、効率基準導入(施行予定を含む)が進み、液冷・熱マネジメントは産業テーマ化しやすい領域です。
導入と概要
AIデータセンター向けの液冷・熱マネジメントとは、AIサーバ(特にGPU等)から発生する大きな熱を、液体を使って効率よく回収・輸送・放熱(時に再利用)する技術と運用の総称です。
なぜ今これが重要かというと、AIの計算強化に伴いチップの発熱密度が上がり、従来の空冷だけでは対応しづらくなるためです。実務的には、冷却が不十分だと性能や安定稼働に影響し、結果として「高価なAIハードウェアをフルに使えない」リスクが増えます(一般論ではなく、産業的に空冷→液冷の移行が起きていること自体が根拠です)。
日本の政策面でも、エネルギー基本計画が液体冷却を名指しし、データセンターの省エネを強化する方向を示しています。
この記事では、初学者が「液冷って結局何?」「なぜ必要?」「日本で何が起きる?」を説明できるように、用語、世界と日本の現状、経済・社会への影響、課題と展望を整理します。
前提知識・用語整理
液冷はどんな方式があるのか
液冷(Liquid Cooling)は、液体の熱輸送能力を使って熱を取り除く冷却です。液冷の代表的な整理として、研究・レビューでは「コールドプレート冷却」と「浸漬冷却」に大別し、浸漬には単相・二相がある、と説明されます。
日本のエネルギー政策の解説でも、データセンターの省エネ促進に「液浸冷却(サーバを冷却液に浸す)」が挙げられています。
ここでは一般読者向けに、現場でよく出る3方式にまとめます(厳密な学術分類は上記のとおりです)。
- 直接液冷(Direct-to-chip / Cold plate):CPU/GPUに冷却板を密着させ、液体が板内を流れて熱を回収します。
- リアドア型熱交換(Rear-door heat exchanger):ラック背面のドア側で熱交換し、ホールの空気に熱を拡散させにくくします(方式名の理解としてここでは紹介に留めます)。
- 液浸冷却(Immersion):サーバを冷却液に浸し、サーバ全体から熱を直接取り除きます(単相・二相があります)。
「冷却板、ポンプ、熱交換器、チラー、配管、水処理」はどうつながるか
液冷は、発熱源から外気(または別用途)まで、熱を運ぶ道が必要です。液冷システムの典型例として、技術文献では冷却板→CDU→(施設側の水系)→チラー/冷却塔等の流れが示されます。
ここで重要なのがCDUです。CDUには、温度・流量・圧力の制御、冷却液のろ過/監視、熱交換(技術系と施設系の分離)など、複数の機能がまとめられると整理されています。
また、液冷の技術側ループ(TCS)には、IT機器・配管・マニホールド・バルブ・コネクタに加え、冷却液の品質監視・処理、制御系まで含まれる、と定義されています。
「水処理」がテーマになりやすいのは、液体が長期間循環するためです。たとえば液冷の技術側ループでは、腐食や汚れ、微生物などが冷却性能や寿命に影響しうるため、冷却液の管理(配合、ろ過、品質監視)が論点として挙げられます。
PUEとWUEは何を見ている指標か
- PUE(Power Usage Effectiveness)は、データセンターのエネルギー効率を測る代表指標で、国際標準(ISO/IEC 30134-2)でも測定・算定・報告の枠組みが定められています。
- WUE(Water Usage Effectiveness)は、水の使用効率を表す指標で、ISO/IEC 30134-9でKPIとして定義されています。
液冷はPUE改善に寄与しやすい一方で、水の使い方(冷却塔の蒸発、補給水など)によってはWUEの論点が強まる可能性があります。ここは「液冷=必ず水を大量に使う」ではなく、設計(冷却方式、温度帯、放熱手段、立地)で変わる点が誤解されやすいポイントです。
世界と日本の現状
世界の現状:電力需要の増加と報告・標準化の流れ
国際的には、データセンター電力需要の増加が政策課題になっています。国際エネルギー機関(IEA)の分析では、データセンターは2024年に世界の電力消費の約1.5%(415TWh)を占め、2017年以降は年約12%で増加してきた、とされています。
同じ分析で、2030年に向けてデータセンター電力消費が約945TWhへと倍増超する見通し(ベースケース)が示され、AIが主要な増加要因とされています。
対応は「電源を増やす」だけではなく、「効率を見える化し、改善を促す」方向も強まっています。EUでは改正されたエネルギー効率指令の下で、一定規模以上(例:500kW超)のデータセンターに対する報告義務や、共通の評価枠組み(委任規則)に基づくデータベース整備が進められています。
また国別には、ドイツのエネルギー効率法(EnEfG)で、データセンターに関する規定(例:廃熱利用の要件など)が法文として整備されています。
ここでのポイントは「どの国でも同じ規制」ではなく、電力・水・熱(廃熱)を測って説明できる状態を求める方向が広がっていることです。
日本の現状:第7次エネルギー基本計画と、PUE中心の制度設計
日本では、資源エネルギー庁が公表する第7次エネルギー基本計画(2025年2月18日閣議決定)で、最新の政策文書が整備されています。
この計画は、データセンター等の効率改善に向けて、最先端情報処理技術と並び「液体冷却技術などの最先端付帯設備」の技術開発・設備投資を促し、大幅なエネルギー効率改善につなげる方向を明示します。
同趣旨は英語版(仮英訳)でも、データセンターのエネルギー効率改善のために「liquid cooling systems」に言及する形で示されています。
制度面では、まずベンチマーク制度にデータセンター業が追加され、指標としてPUEを用い、目標値を1.4とする設計が示されています(上位15%水準を踏まえた設定という整理も示されています)。
またベンチマーク制度全体として、目標年度を2030年度とする枠組みが示されています。
さらに直近では、資源エネルギー庁が「データセンター業に係る措置」(2026年3月資料)として、追加措置の全体像を公表しています。そこでは、
- 2030年度目標として「事業者平均PUE 1.4以下」
- 2029年度以降の新設DCに「稼働2年後にPUE 1.3以下」といった効率基準(満たさない場合の措置を含む)
- 2026年度以降の公表・報告項目の拡充
などが示されています(ただし施行は「2026年4月1日から施行予定」と明記されており、将来の制度運用は最新情報の確認が必要です)。
加えて、資源エネルギー庁は「データセンター業に係る措置のガイドライン(案)」も公開しており、DC業の定義、PUE等の扱い、報告の考え方を整理しています。
経済・社会・必要に応じて地政学への影響
電力:データセンター増設が需要の押し上げ要因として明示される
データセンターは、立地(どの系統・どの地域に集中するか)によって、局地的に電力インフラを逼迫させうる点が重要です。IEAも、世界全体の比率としては小さく見えても、ローカル市場では影響が大きい、と指摘しています。
日本でも、電力広域的運営推進機関(OCCTO)の需要想定(2025年度)では、データセンター・半導体工場の新増設が需要増加要因として織り込まれています。
この「需要が増える」見通しがあるからこそ、政策側は電源確保と同時にデータセンター自身の効率改善を強調し、液冷のような付帯設備まで議論が降りてきた、と理解すると筋が通ります。
水:液冷・高効率化が進むほど「WUE」と地域受容性が論点になりやすい
液冷は、熱を効率よく運ぶことで冷却の電力を減らしやすい一方、施設の放熱方式によっては水の論点が強まります。だからこそ、WUEは国際標準(ISO/IEC 30134-9)としてKPI化され、EUでも水フットプリントを含む報告枠組みが議論・整備されています。
日本の制度でも、データセンターの効率・情報公開を強める流れが示されており、今後は「省エネ(PUE)だけでなく、水や廃熱も含めて説明できる体制」が実務上の競争力になっていく可能性があります。ここは将来予測を含むため断定せず、推測ですが、EUの制度設計が水フットプリントまで含めていることを踏まえると、日本でも同様の指標整備が議論される余地はあります。
産業:冷却インフラは「新しい設備投資・部材需要」を生む
第7次エネルギー基本計画は、液体冷却技術を「最先端付帯設備」として位置づけ、技術開発・設備投資を促す文脈で語ります。
この言い方は、冷却板・CDU・ポンプ・熱交換器・配管・水処理・監視制御といった領域が、ITの周辺ではなく、成長産業を成立させる中核の投資対象になりうる、というメッセージでもあります。
地政学的には、半導体と同様に、データセンター設備のサプライチェーンが複雑である点が論点になります。IEAも、データセンター部材の供給網が国際的であり、特定資源への依存がエネルギー安全保障上の論点になりうる趣旨を示しています。
ただし「冷却部材の具体的な資源依存(例:銅、化学品)」については、本記事の範囲では一次情報で十分に特定できないため、断定は避けます。
今後の課題と展望
技術課題は「冷やす」より「運用し続ける」に寄っていく
液冷導入の初期は「冷却できるか」が注目されがちですが、実務ではむしろ「安定運用(漏えい、腐食、汚れ、冗長化、保守)」が支配的な課題になりやすいです。液冷のシステム課題として、仕様策定・設置・運用に関わる複数の課題が整理されています。
たとえば漏えいは、配管そのものよりも継手・接続部で起きやすく、漏えい検知(直接/間接)をどこまで入れるかが設計・運用の論点になります。
またCDUを含む技術側ループには、冷却液の品質監視・処理、制御が含まれるとされ、ここが水処理・計装テーマの中心になります。
標準化は進行中で、比較可能性(評価方法)が競争力になる
液冷は設備として新しめの領域が多く、「同じ条件で性能比較できるか」が難題になりがちです。たとえばCDUは重要設備でありながら、比較可能な標準がまだ十分ではない、という問題意識が示され、標準側での整備(追加規定など)が進む方向性が示されています。
温度帯についても、設計水温(例:何℃の水を供給する前提か)は方式や空調・放熱設計を左右します。ASHRAEは液冷の環境仕様(温度クラス等)をガイドラインとして提示しています。
日本では「PUEの測定・報告・公表」が実装フェーズに入り、液冷の意思決定が加速しうる
日本の追加措置案では、PUEを軸に、
- 目標(2030年度の事業者平均PUE 1.4以下)
- 新設基準(2029年度以降の新設DC:稼働2年後にPUE 1.3以下)
- 定期報告等の拡充と、一部公表
という実装計画が示されています。
これは「液冷を義務化」と断定できるものではありません(そう書かれていません)が、高密度化で空冷だけではPUE達成が難しいケースが増えるほど、液冷の採用が現実的な選択肢になりやすい、とは言えます。これは制度の方向性(PUE)と技術の制約(熱密度増大で空冷→液冷へ移行)の組み合わせからの推論です。
テーマ化しやすい領域を「部品」ではなく「熱の流れ」で捉える
「冷却板、ポンプ、熱交換器、チラー、配管、水処理」がテーマになりやすい理由は、熱が連鎖して流れるからです。冷却板で回収した熱はCDUの熱交換器へ運ばれ、施設側水系に渡され、最終的に外気へ放熱(または別用途へ供給)されます。
一般読者向けに、開発・改善の論点を熱の流れで整理すると次のようになります(プロ向けの設計値ではなく、論点の地図です)。
- 冷却板(コールドプレート):熱を取り切れるか(接触、流路、材料)、長期の目詰まりや腐食に強いか。
- ポンプ/流量制御:高密度ラックで必要流量を安定供給できるか、冗長化や制御の設計が妥当か。
- 熱交換器(CDU内):技術側と施設側を分離しつつ、必要な温度差(アプローチ温度)で熱を渡せるか。
- チラー/冷却塔/ドライクーラー等:立地・気候に応じて、どこまで機械冷凍を減らせるか(省エネ余地と水のトレードオフ)。
- 配管・継手・漏えい検知:漏えいリスクをどこで管理するか(検知、遮断、運用手順)。
- 水処理・冷却液管理:ろ過、品質監視、腐食・汚れ・微生物対策をどう回すか(運用コストと信頼性)。
よくある疑問Q&A
Q:液冷は空冷より必ず省エネですか?
A:必ず、とは言えません。液冷は高密度熱を効率よく運べるため、空冷で無理に冷やすより合理的になりやすい一方、施設の放熱(チラー稼働、冷却塔、外気温)や運用設計で結果が変わります。
Q:「液浸冷却」と「直接液冷」はどう違う?
A:大きくは、冷却液が電子機器に直接触れるかどうか、です。液浸はサーバを冷却液に浸す方式として政策解説でも説明されます。直接液冷は、冷却板を介してCPU/GPU等を冷やします。
Q:CDUって何ですか?なぜ重要?
A:CDUは、冷却液を分配しつつ、温度・流量・圧力の制御、ろ過・監視、熱交換(技術系と施設系の分離)などを担う要の装置として整理されています。液冷を「設備として成立」させる中核です。
Q:生成AIで「熱がボトルネック」になりやすいのはなぜ?
A:AI/HPCはGPU等の高性能チップを使い、性能を上げるほど除去すべき熱が増えます。その結果、サーバベンダーが空冷から液冷へ移行している、という産業的事実が整理されています。
Q:第7次エネルギー基本計画は、液冷をどう位置づけていますか?
A:データセンター等の大幅なエネルギー効率改善に向け、最先端情報処理技術と、それを支える「液体冷却技術などの最先端付帯設備」の技術開発・設備投資を進める方向を明示しています。
Q:日本のPUE規制・目標はどうなっていますか?
A:公表資料(2026年3月)では、ベンチマーク制度の一環として2030年度に「事業者平均PUE 1.4以下」、さらに2029年度以降の新設DCに「稼働2年後にPUE 1.3以下」といった枠組みが示されています(施行は2026年4月1日から施行予定と明記)。
Q:液冷は水をたくさん使うのですか?
A:「液冷=水を大量に消費」とは言い切れません。冷却に水系を使う場合でも、どの放熱方式を採用するかで水使用は変わります。国際的にはWUEがKPIとして標準化され、EUでは水フットプリントを含む報告枠組みが整備されています。
Q:漏れたら大事故になりませんか?
A:リスクはゼロではありませんが、漏えいは継手・接続部に集中しやすい、検知(直接/間接)や制御(遮断・通知)をどう設計するか、といった形で体系的に扱われます。
Q:液冷は既存データセンターでも導入できますか?
A:方式によります。文献では、液冷CDUにも液-液/液-空など複数タイプがあり、既存空冷環境に追加しやすい構成もある、と整理されています。
ただし、既設への適用可否は、配管経路、床荷重、保守動線、停止可能時間など、設備条件に強く依存します(個別案件の確認が必要です)。
読者が次に取れる行動としては、立場別に次が現実的です。
- 一般読者:ニュースで「データセンター=電力」と見たら、併せて「熱(冷却方式)」「PUE/WUE」「地域の受容性(電力・水・廃熱)」の観点で読むと理解が深まります。
- 事業・企画担当:自社/取引先がデータセンター事業に関わる場合、PUEの測り方(標準・制度)と、今後予定される追加措置(公表・効率基準)を一次資料で早めに把握すると、投資判断がぶれにくくなります。
- 技術・開発担当:冷却板単体の性能だけでなく、CDU、配管、漏えい検知、水処理、制御まで含めて熱の流れとして設計課題を切り出すと、テーマ設定(差別化ポイント)が明確になります。
参考
- 資源エネルギー庁. 2025. 第7次エネルギー基本計画. 資源エネルギー庁. 閲覧日:2026-03-18.
- 資源エネルギー庁. 2025. エネルギー基本計画について(第7次エネルギー基本計画の掲載ページ). 資源エネルギー庁. 閲覧日:2026-03-18.
- 資源エネルギー庁. 2025. 「エネルギー基本計画」をもっと読み解く①(データセンター省エネ:光電融合・液浸冷却の解説). 資源エネルギー庁. 閲覧日:2026-03-18.
- 資源エネルギー庁. 2026. 省エネ・非化石転換法に基づく データセンター業に係る措置(2026年3月). 資源エネルギー庁. 閲覧日:2026-03-18.
- 資源エネルギー庁. 2026. 省エネ・非化石転換法に基づくデータセンター業に係る措置のガイドライン(案). 資源エネルギー庁. 閲覧日:2026-03-18.
- 経済産業省 資源エネルギー庁. 2022. ベンチマーク制度 令和3年度見直し事項の概要(データセンター業:PUE 1.4等). 経済産業省. 閲覧日:2026-03-18.
- 経済産業省 資源エネルギー庁. 2022. ベンチマーク制度の目的(目標年度2030年度等). 経済産業省. 閲覧日:2026-03-18.
- International Energy Agency (IEA). 2025. Energy and AI – Executive summary. IEA. 閲覧日:2026-03-18.
- European Commission. 2024-2025. Energy performance of data centres / reporting scheme(EED・EUデータベース・委任規則の説明). European Commission. 閲覧日:2026-03-18.
- ISO. 2026. ISO/IEC 30134-2: Power usage effectiveness (PUE). ISO. 閲覧日:2026-03-18.
- ISO. 2022. ISO/IEC 30134-9: Water usage effectiveness (WUE). ISO. 閲覧日:2026-03-18.
- Schneider Electric. 2025. Direct Liquid Cooling System Challenges in Data Centers(White Paper 210). Schneider Electric. 閲覧日:2026-03-18.
- Open Compute Project. 2023. OAI System Liquid Cooling Guidelines. Open Compute Project. 閲覧日:2026-03-18.
- ASHRAE. 2021. Equipment Thermal Guidelines for Data Processing Environments(Liquid Cooling Guidelinesの参照カード). ASHRAE. 閲覧日:2026-03-18.
- Wu, Zhijun, et al. 2025. A comprehensive review of cold plate liquid cooling technology for data centers. Chemical Engineering Science. DOI:10.1016/j.ces.2025.121525. 閲覧日:2026-03-18.
- Zhang, C., et al. 2023. Energy saving potential analysis of two-phase immersion cooling system with multi-mode condenser. Applied Thermal Engineering(ScienceDirect preview). 閲覧日:2026-03-18.
- Organization for Cross-regional Coordination of Transmission Operators, Japan. 2025. 全国及び供給区域ごとの需要想定(2025年度). OCCTO. 閲覧日:2026-03-18.

コメント