液体冷却与空气冷却:50kW GPU 机架指南 (2025)
人工智能工作负载的指数级增长将数据中心冷却推向了一个关键的拐点。随着 GPU 机架密度飙升至 50 千瓦以上(下一代系统要求 100 千瓦及以上),传统的空气冷却已达到其基本物理极限。本综合分析报告揭示了业界如何通过先进的液体冷却技术来驾驭这一热转型,从而实现10-21% 的能源节约和40% 的冷却成本降低,并为人工智能革命提供必要的基础设施。
当空气成为瓶颈
在高密度条件下,空气冷却的失效不是渐进式的,而是悬崖式的。当每个机架的功率达到 50 千瓦时,物理条件就会变得非常苛刻:在 20°F 的温差下,冷却需要每分钟 7,850 立方英尺(CFM)的气流。将这一数字翻倍到 100 千瓦,则需要 15,700 立方英尺/分钟的气流,这将在仅有 2-4 平方英寸的服务器进气口产生飓风。基本散热方程(Q = 0.318 × CFM × ΔT)揭示了一个难以克服的挑战:随着密度的增加,所需的气流呈线性增长,但风扇功耗却随着风扇转速的立方而增长。气流每增加 10%,风扇功率就要增加 33%,这就形成了一个能耗螺旋,使得高密度空气冷却在经济上和实际上都不可能实现。
现实世界的证据证实了这些理论极限。一个记录在案的案例显示,当冷却失效时,仅 6 千瓦的 250 个机架在75 秒内从 72 华氏度升至超过 90 华氏度。为 5-10kW 平均机架密度设计的传统数据中心根本无法处理现代 GPU 工作负载。即使采用先进的冷热通道隔离技术,空气冷却功率超过 40kW 时也会出现问题,而非隔离系统则会因热空气再循环而损失 20-40% 的容量。新的 ASHRAE H1 环境等级是专门为高密度设备设立的,它将允许温度限制在 18-22°C - 在 GPU 规模下,空气冷却无法维持这一温度范围。
液体冷却技术改变可能。
向液体冷却的过渡不仅仅是渐进式的改进,而是从根本上重新构想散热方式。水的热传导系数是空气的3,500 倍,使冷却能力达到 100 千瓦以上的机架成为家常便饭,而不是引人注目。
直接对芯片冷却引领了这一变革,冷板具有直接连接到处理器的微通道(27-100 微米)。这些系统的供水温度为 40°C,回水温度为 50°C,可通过液体带走 70-75% 的机架热量,同时保持1.02-1.03 的部分 PUE。现代系统支持每个芯片 1.5 千瓦以上的功率,9 千瓦服务器的流速为每分钟 13 升。其余 25-30% 的热量--来自内存、驱动器和辅助组件--仍然需要空气冷却,因此这些混合系统成为大多数部署的实际选择。
浸入式冷却技术则更进一步,将整个服务器浸入介电流体中。使用矿物油的单相系统成本为每加仑 50-100 美元,每个机架可持续支持200 千瓦。两相系统可通过沸腾和冷凝实现出色的热传递,但也面临着挑战:碳氟化合物流体的成本为每加仑 500-1000 美元,而 3M 公司出于环保考虑将在 2025 年前停止生产,这都阻碍了该技术的应用。该技术的复杂性--密封外壳、气蚀风险和全氟辛烷磺酸(PFAS)法规--使其只能在特殊应用中使用。
冷却液分配器 (CDU)是液体冷却基础设施的支柱。现代设备的范围从 7 千瓦的机架式系统到 2,000 千瓦以上的巨型设备,如 CoolIT 的 CHx2000。领先的供应商 Vertiv、施耐德电气、Motivair 和 CoolIT 提供的解决方案具有 N+1 冗余、50 微米过滤和用于负载匹配的变频驱动器。CDU 市场在 2024 年的价值为 10 亿美元,预计到 2031 年将达到 36 亿美元(年均复合增长率为 20.5%),这反映了液体冷却技术的迅速普及。
改造的艺术与经济
将现有数据中心过渡到液体冷却需要精心策划。最成功的方法是分阶段迁移:从 1-2 个高密度机架开始,扩展到一排机架,然后根据需求进行扩展。目前出现了三种主要的改造途径:利用现有空调的液-气 CDU、每个机架可冷却高达 40 千瓦的后门热交换器以及可实现最高效率的直对芯片解决方案。
基础设施改造是主要挑战。电力基础设施往往成为限制因素--无论冷却能力如何,为 5-10 千瓦平均负载设计的设施都无法支持 50 千瓦以上的机架。在高架地板环境中,或在楼板结构中使用滴水盘进行架空安装时,管道系统需要仔细的 CFD 建模。地板负荷,尤其是浸入式系统的负荷,可能会超过旧设施的结构承载能力。
成本分析表明,尽管初始投资较高,但经济效益令人信服。加州能源委员会的一项研究表明,为 17 个机架上的 1,200 台服务器提供一套完整的液体冷却系统,总成本为 470,557 美元,即每台服务器 392 美元,包括设施改造。每年可节约 355 兆瓦时的能源(按 0.11 美元/千瓦时计算为 39,155 美元),简单投资回报期为 12 年,但优化实施后的回报期为 2-5 年。施耐德电气的分析表明,通过 4x 机架压实可节省 14% 的资本,而运营方面的节省包括数据中心总电量减少 10.2%,总使用效率提高 15.5%。
混合环境中的集成挑战成倍增加。即使是 "完全液体冷却 "的设备,也需要 20-30% 的空气冷却能力用于辅助组件。控制系统必须协调多种冷却技术,同时监控机架入口温度和供水条件。冗余变得至关重要--后门热交换器在打开检修时必须切换到空气冷却,而直接到芯片系统在满负荷时的穿越时间不到 10 秒。
从试点到生产
实际部署证明了液体冷却技术的成熟。Meta 公司率先在 4000 多万平方英尺的数据中心空间内采用了空气辅助液体冷却技术。他们的 Catalina 机架设计支持 140kW 和 72 个 GPU,而整个设施的液冷部署目标是在 2025 年初完成。这次改造需要废弃多个在建数据中心,进行人工智能优化的重新设计,预计新架构可节省 31% 的成本。
谷歌使用液冷 TPU 的七年历程提供了业界最全面的数据集。他们在 2000 多个 TPU Pod 上部署了千兆瓦级的闭环系统,实现了99.999% 的正常运行时间,同时展示了比空气高 30 倍的导热性。他们的第五代 CDU 设计 Project Deschutes 将加入开放计算项目,加速全行业的采用。
微软在生产中采用两相浸入式冷却技术,使用的介电流体的沸点比水低 122°F-50°C,推动了冷却技术的发展。该技术可使服务器功耗降低 5-15%,同时无需冷却风扇。他们承诺到 2024 年减少 95% 的用水量,这推动了闭环零蒸发系统的创新。
CoreWeave等专业供应商展示了针对人工智能工作负载的液体冷却技术。他们计划到 2024 年底部署 4000 个 GPU,实现 130kW 机架密度,系统利用率比竞争对手高出 20%。他们的轨道优化设计通过提高可靠性节省了 310 万个 GPU 小时,在 60 天内部署了 H100 集群。
满足人工智能加速器的散热需求
GPU 规格揭示了液冷成为强制性要求的原因。英伟达™(NVIDIA®)H100 SXM5的总功耗为 700W,需要使用液冷系统才能获得最佳性能。H200 在保持相同功耗的同时,以 4.8TB/s 的速度提供了 141GB 的 HBM3e 内存,带宽增加了 1.4 倍,从而产生了相应的热量。即将推出的B200则进一步突破了界限:液冷型为 1,200 瓦,风冷型为 1,000瓦,20 PFLOPS FP4 性能要求复杂的热管理。
GB200 NVL72在一个机架中安装了72 个 Blackwell GPU 和 36 个 Grace CPU,代表了风冷技术的极限。它的机架功率为 140 千瓦,需要通过新开发的冷板和 250 千瓦 CDU 进行强制液体冷却。系统级考虑因素使复杂性更加复杂:NVSwitch 互连会增加 10-15W 的功率,而高速内存和电源传输系统则会产生大量额外热量。
JetCool 的技术分析显示了明显的性能差异:他们的 H100 SmartPlate 实现了 0.021°C/W 的热阻,芯片运行温度比空气替代品低 35°C,同时支持 60°C 的入口温度。这种温度降低理论上可以将 GPU 的使用寿命延长 8 倍,同时实现持续的最高性能,这对于多周的人工智能训练运行至关重要。
2030 年路线图
行业正处于一个转型点,最佳实践迅速演变为要求。ASHRAE 新的 H1 环境等级(建议温度为 18-22°C)承认传统准则无法适应人工智能工作负载。开放计算项目的液体冷却标准推动了互操作性,而其浸入式要求 2.10 版则为新兴技术建立了鉴定流程。
尽管目前存在挑战,但两相浸入式冷却技术有望在 2025-2027 年成为主流。市场预测显示,由于出色的传热性能,每块芯片的功率将达到 1,500W 以上,因此市场规模将从 3.75 亿美元(2024 年)增长到 12 亿美元(2032 年)。Accelsius NeuCool 等创新技术和已停产的 3M 硅油替代品在保持性能的同时解决了环境问题。
人工智能驱动的优化可带来立竿见影的回报。谷歌 DeepMind 的实施方案通过实时学习实现了 40% 的冷却能耗降低,而西门子的 "白色空间冷却优化 "和类似平台也在不断涌现。这些系统可以预测故障、优化冷却剂化学成分,并根据工作负载模式进行动态调整--91% 的供应商预计这些功能将在五年内普及。
余热回收将责任转化为资产。斯德哥尔摩数据园区已利用数据中心的废热为 1 万户家庭供暖,目标是到 2035 年实现 10%的城市供暖。监管压力加速了采用:德国规定到 2028 年实现 20% 的热能再利用,而加利福尼亚州的 Title 24 则要求在新建筑中采用回收基础设施。热泵技术可将 30-40°C 的废热提升到 70-80°C 用于区域供热,从而利用以前废弃的能源创造收入流。
实现过渡
要成功部署液体冷却技术,就必须进行多方面的战略规划。各组织应从直接的液冷-空气 CDU 开始,以实现最低门槛的进入,但必须首先评估电力基础设施--无论采用哪种冷却技术,电力容量不足都会影响改造的可行性。从 1-2 个机架试点开始,可以在扩大规模之前进行学习,而保持空气冷却专业技术对于混合运营仍然至关重要。
财务建模必须考虑系统的总价值。虽然每千瓦冷却能力的初始投资在 1,000 美元到 2,000 美元之间,但运营成本的节省却十分可观:优化实施可降低 27% 的设备功耗,与传统系统相比可节省 30% 的冷却能源,更重要的是,能够部署创收的人工智能工作负载,而这在空气冷却系统中是不可能实现的。领先的实施方案通过精心设计实现了低于 2 年的投资回报率:绕过低效的冷却器集成可节省 20-30% 的成本,同时专注于最高密度的应用可实现回报最大化。
技术团队需要新的能力。除了传统的暖通空调知识外,工作人员还必须了解冷却剂化学成分、泄漏响应协议和集成控制系统。事实证明,与供应商的合作至关重要--24/7 对专用组件的支持以及每 6 个月一次的定期预防性维护,都是运营的必需品。安全协议扩大到包括介电流体处理和压力系统管理。
市场信号显示出巨大的发展势头。数据中心液体冷却以 27.6% 的年复合增长率从 49 亿美元(2024 年)增长到预计的 213 亿美元(2030 年)。到 2025-2026 年,单相直达芯片冷却将成为人工智能工作负载的标准配置,而到 2027 年,两相浸入式冷却将成为主流应用。到 2030 年,1MW 机架将需要高级液体冷却作为标准配置,而不是例外。
结论
物理原理显而易见:空气冷却已达到极限。在 50-100 千瓦的机架密度下,基本的热力学限制使得液体冷却不仅更可取,而且是强制性的。这种转变是数据中心历史上最重大的基础设施转变,需要新的技能、大量投资和运营转型。然而,其带来的好处包括:节能 10-21%、冷却成本降低 40%、可靠性提高 8 倍,以及最关键的部署下一代人工智能基础架构的能力,这些都使这一演变成为必然。今天掌握液冷技术的企业将为明天的人工智能突破提供动力,而那些迟迟不能实现突破的企业则会在行业向更高计算密度迈进的过程中落伍。我们已经到了散热墙的边缘,液冷将是我们突破的方式。
参考资料
ACM 数字图书馆。"采用浸入式冷却系统的 GPU 数据中心中的高能效 LLM 训练"。第 16 届 ACM 未来与可持续能源系统国际会议论文集。2025. https://dl.acm.org/doi/10.1145/3679240.3734609.
AMAX."英伟达™(NVIDIA®)Blackwell 配置比较"。2025. https://www.amax.com/comparing-nvidia-blackwell-configurations/.
---."部署 NVIDIA Blackwell 的五大注意事项"。2025. https://www.amax.com/top-5-considerations-for-deploying-nvidia-blackwell/.
arXiv."[1309.4887]iDataCool:采用热水冷却和能源再利用的高性能计算"。2013. https://ar5iv.labs.arxiv.org/html/1309.4887.
---."[1709.05077]通过深度强化学习改变绿色数据中心的冷却优化"。2017. https://ar5iv.labs.arxiv.org/html/1709.05077.
Attom."Ashrae新热能指南更新:高密度新趋势"。绿色预制数据中心专家。2025. https://attom.tech/ashraes-new-thermal-guideline-update-a-new-high-density-trend/.
Chilldyne."大功率液体冷却设计:500 千瓦机架的直接到芯片解决方案要求"。Chilldyne | 液体冷却。2024 年 7 月 29 日。 https://chilldyne.com/2024/07/29/high-power-liquid-cooling-design-direct-to-chip-solution-requirements-for-500-kw-racks/.
Compass Datacenters。"什么是数据中心冷却?2025. https://www.compassdatacenters.com/data-center-cooling/.
Converge Digest."Meta在2024年OCP峰会上概述人工智能基础设施升级"。2024. https://convergedigest.com/meta-outlinesai-infrastructure-upgrades-at-ocp-summit-2024/.
Core Winner LTD."液体冷却综合指南:高性能数据中心和人工智能部署的未来"。2025. https://www.corewinner.com/en/blog/detail/52.
CoreWeave."为企业打造人工智能集群 2025"。2025. https://www.coreweave.com/blog/building-ai-clusters-for-enterprises-2025.
---."用于人工智能模型和创新的 GPU"。2025. https://www.coreweave.com/products/gpu-compute.
网络防御顾问。"人工智能驱动的预测性维护:数据中心可靠性的未来"。2025. https://cyberdefenseadvisors.com/ai-driven-predictive-maintenance-the-future-of-data-center-reliability/.
数据中心目录。"Meta计划将其数据中心基础设施转向液体冷却"。2022. https://datacentercatalog.com/news/2022/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.
数据中心动态。"数据中心液体冷却简介"。2025. https://www.datacenterdynamics.com/en/analysis/an-introduction-to-liquid-cooling-in-the-data-center/.
---."超大规模厂商在 OCP EMEA 为 1MW 机架做准备;谷歌宣布推出新 CDU"。2025. https://www.datacenterdynamics.com/en/news/hyperscalers-prepare-for-1mw-racks-at-ocp-emea-google-announces-new-cdu/.
---."新的 ASHRAE 准则挑战效率驱动力"。2025. https://www.datacenterdynamics.com/en/opinions/new-ashrae-guidelines-challenge-efficiency-drive/.
---."英伟达首席执行官确认 即将推出的系统将采用液冷技术"2025. https://www.datacenterdynamics.com/en/news/nvidias-ceo-confirms-next-dgx-will-be-liquid-cooled/.
---."利用芯片直接液冷技术优化数据中心效率"。2025. https://www.datacenterdynamics.com/en/opinions/optimizing-data-center-efficiency-with-direct-to-chip-liquid-cooling/.
---."两相冷却将受到美国环保署规定和 3M 退出 PFAS'永久化学品'的冲击"。2025. https://www.datacenterdynamics.com/en/news/two-phase-cooling-will-be-hit-by-epa-rules-and-3ms-exit-from-pfas-forever-chemicals/.
数据中心前沿。"2025年数据中心行业的8大发展趋势"。2025. https://www.datacenterfrontier.com/cloud/article/55253151/8-trends-that-will-shape-the-data-center-industry-in-2025.
---."在数据中心部署液冷服务器的最佳实践"。2025. https://www.datacenterfrontier.com/sponsored/article/55138161/best-practices-for-deploying-liquid-cooled-servers-in-your-data-center.
---."谷歌开发新的'气候意识'冷却技术以节约用水"。2025. https://www.datacenterfrontier.com/cooling/article/33001080/google-developing-new-climate-conscious-cooling-tech-to-save-water.
---."谷歌转向液冷技术进行人工智能数据运算"。2025. https://www.datacenterfrontier.com/cloud/article/11430207/google-shifts-to-liquid-cooling-for-ai-data-crunching.
---."Meta计划将其数据中心基础设施转向液体冷却"。2025. https://www.datacenterfrontier.com/cooling/article/11436915/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.
---."Meta预览面向人工智能驱动的未来的新型数据中心设计"。2025. https://www.datacenterfrontier.com/data-center-design/article/33005296/meta-previews-new-data-center-design-for-an-ai-powered-future.
---."OCP 2024 聚焦:Meta 首次推出 140 千瓦液冷人工智能机架;谷歌希望机器人技术为 Hyperscaler GPU 提供动力"。2024. https://www.datacenterfrontier.com/hyperscale/article/55238148/ocp-2024-spotlight-meta-shows-off-140-kw-liquid-cooled-ai-rack-google-eyes-robotics-to-muscle-hyperscaler-gpu-placement.
---."推动高密度环境中空气冷却技术的发展"。2025. https://www.datacenterfrontier.com/special-reports/article/11427279/pushing-the-boundaries-of-air-cooling-in-high-density-environments.
---."报告:Meta 计划在以人工智能为中心的数据中心重新设计中转向液体冷却"。2025. https://www.datacenterfrontier.com/cooling/article/33004107/report-meta-plans-shift-to-liquid-cooling-in-ai-centric-data-center-redesign.
---."液体冷却对开放计算项目(OCP)的重要性"。2025. https://www.datacenterfrontier.com/sponsored/article/55134348/the-importance-of-liquid-cooling-to-the-open-compute-project-ocp.
---."余热利用是数据中心行业实现净零能耗的下一步"。2025. https://www.datacenterfrontier.com/voices-of-the-industry/article/11428787/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy.
---."ZutaCore的HyperCool液体冷却技术将支持英伟达™(NVIDIA®)先进的H100和H200 GPU,实现可持续的人工智能"。2024. https://www.datacenterfrontier.com/press-releases/press-release/33038994/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai.
数据中心知识。"数据中心改造策略"。2025. https://www.datacenterknowledge.com/infrastructure/data-center-retrofit-strategies.
---."混合冷却:数据中心实现完全液体冷却的桥梁"。2025. https://www.datacenterknowledge.com/cooling/hybrid-cooling-the-bridge-to-full-liquid-cooling-in-data-centers.
数据中心评论》。"充分利用数据中心余热"。2024 年 6 月。 https://datacentrereview.com/2024/06/making-the-most-of-data-centre-waste-heat/.
数据中心。"CoreWeave在谷歌和OpenAI云合作中的作用重新定义了人工智能基础设施"。2025. https://www.datacenters.com/news/coreweave-s-strategic-role-in-google-and-openai-s-cloud-collaboration.
戴尔"数据中心何时从空气冷却转向液体冷却"。2025. https://www.dell.com/en-us/blog/when-to-move-from-air-cooling-to-liquid-cooling-for-your-data-center/.
Digital Infra Network。"谷歌为人工智能采取的兆瓦级举措:改造电力和冷却系统"。2025. https://digitalinfranetwork.com/news/google-ocp-400v-liquid-cooling/.
Enconnex."数据中心液体冷却与空气冷却"。2025. https://blog.enconnex.com/data-center-liquid-cooling-vs-air-cooling.
Meta 工程部。"Meta的开放式人工智能硬件愿景"2024 年 10 月 15 日。 https://engineering.fb.com/2024/10/15/data-infrastructure/metas-open-ai-hardware-vision/.
财富》商业洞察。"2032年两相数据中心浸液冷却市场"。2025. https://www.fortunebusinessinsights.com/two-phase-data-center-liquid-immersion-cooling-market-113122.
谷歌云。"在 OCP EMEA 峰会上启用 1 MW IT 机架和液体冷却"。谷歌云博客。2025. https://cloud.google.com/blog/topics/systems/enabling-1-mw-it-racks-and-liquid-cooling-at-ocp-emea-summit.
GR Cooling."探索先进的液体冷却技术:浸入式冷却与直接芯片冷却"。2025. https://www.grcooling.com/blog/exploring-advanced-liquid-cooling/.
---."两相浸入式冷却与单相浸入式冷却"。2025. https://www.grcooling.com/blog/two-phase-versus-single-phase-immersion-cooling/.
HDR。"芯片直接液体冷却"。2025. https://www.hdrinc.com/insights/direct-chip-liquid-cooling.
HiRef."混合室:数据中心空气和液体冷却的组合解决方案"。2025. https://hiref.com/news/hybrid-rooms-data-centers.
HPCwire."H100渐行渐远:Nvidia用H200吹嘘2024年的硬件"。2023 年 11 月 13 日。 https://www.hpcwire.com/2023/11/13/h100-fading-nvidia-touts-2024-hardware-with-h200/.
IDTechEx."2025-2035 年数据中心的热管理:技术、市场和机遇"。2025. https://www.idtechex.com/en/research-report/thermal-management-for-data-centers/1036.
JetCool."数据中心的直接液体冷却与浸入式冷却"。2025. https://jetcool.com/post/five-reasons-water-cooling-is-better-than-immersion-cooling/.
---."英伟达™(NVIDIA®)H100 GPU的液体冷却系统"2025. https://jetcool.com/h100/.
Maroonmonkeys."基民盟"2025. https://www.maroonmonkeys.com/motivair/cdu.html.
微软"纳蒂克项目第二阶段"。2025. https://natick.research.microsoft.com/.
微软新闻。"为冷却数据中心服务器,微软转向沸腾液体"。2025. https://news.microsoft.com/source/features/innovation/datacenter-liquid-cooling/.
诺泰克数据中心冷却解决方案。"余热利用是数据中心行业实现净零能耗的下一步"。2025. https://www.nortekdatacenter.com/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy/.
英伟达™(NVIDIA®)。"H200张量核GPU"。2025. https://www.nvidia.com/en-us/data-center/h200/.
开放计算项目。"开放计算项目基金会扩展其人工智能开放系统计划"。2025. https://www.opencompute.org/blog/open-compute-project-foundation-expands-its-open-systems-for-ai-initiative.
P&S Intelligence."2032年浸入式冷却市场规模、份额和趋势分析"。2025. https://www.psmarketresearch.com/market-analysis/immersion-cooling-market.
美通社。"超微公司推出面向英伟达™(NVIDIA®)Blackwell 和英伟达™(NVIDIA®)HGX H100/H200 的机架式即插即用水冷 AI 超级集群"。2024. https://www.prnewswire.com/news-releases/supermicro-introduces-rack-scale-plug-and-play-liquid-cooled-ai-superclusters-for-nvidia-blackwell-and-nvidia-hgx-h100h200--radical-innovations-in-the-ai-era-to-make-liquid-cooling-free-with-a-bonus-302163611.html.
---."ZutaCore的HyperCool液体冷却技术将支持英伟达™(NVIDIA®)先进的H100和H200 GPU,实现可持续的人工智能"。2024. https://www.prnewswire.com/news-releases/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai-302087410.html.
威图"什么是直接芯片冷却--液体冷却是你的未来吗?2025. https://www.rittal.com/us-en_US/Company/Rittal-Stories/What-is-Direct-to-Chip-Cooling-and-Is-Liquid-Cooling-in-your-Future.
ScienceDirect."数据中心的液体冷却:面临挑战的必然选择"。2024. https://www.sciencedirect.com/science/article/abs/pii/S1359431124007804.
半分析。"数据中心解剖第一部分:电气系统"。2024 年 10 月 14 日。 https://semianalysis.com/2024/10/14/datacenter-anatomy-part-1-electrical/.
---."数据中心剖析 第二部分 - 冷却系统"。2025 年 2 月 13 日。 https://semianalysis.com/2025/02/13/datacenter-anatomy-part-2-cooling-systems/.
---."多数据中心培训:OpenAI打败谷歌基础设施的宏伟计划"。2024 年 9 月 4 日。 https://semianalysis.com/2024/09/04/multi-datacenter-training-openais/.
TechPowerUp."NVIDIA H100 PCIe 80 GB 规格"。TechPowerUp GPU 数据库。2025. https://www.techpowerup.com/gpu-specs/h100-pcie-80-gb.c3899.
TechTarget."数据中心中的液体冷却与空气冷却"。2025. https://www.techtarget.com/searchdatacenter/feature/Liquid-cooling-vs-air-cooling-in-the-data-center.
Unisys."领先的 LLM 开发商如何推动液体冷却热潮"。2025. https://www.unisys.com/blog-post/dws/how-leading-llm-developers-are-fueling-the-liquid-cooling-boom/.
Upsite Technologies。"机架密度和 Delta T 如何影响您的气流管理策略"。2025. https://www.upsite.com/blog/rack-density-delta-t-impact-airflow-management-strategy/.
---."何时改造数据中心以适应人工智能,何时不改造"。2025. https://www.upsite.com/blog/when-to-retrofit-the-data-center-to-accommodate-ai-and-when-not-to/.
美国正常运行时间研究所。"数据中心冷却最佳实践"。2025. https://journal.uptimeinstitute.com/implementing-data-center-cooling-best-practices/.
---."液体冷却的性能预期需要现实检验"。正常运行时间研究所博客。2025. https://journal.uptimeinstitute.com/performance-expectations-of-liquid-cooling-need-a-reality-check/.
Utility Dive。"2025 年数据中心制冷展望"。2025. https://www.utilitydive.com/news/2025-outlook-data-center-cooling-electricity-demand-ai-dual-phase-direct-to-chip-energy-efficiency/738120/.
Vertiv."在数据中心部署液体冷却:冷却剂分配装置 (CDU) 的安装和管理"。2025. https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/deploying-liquid-cooling-in-data-centers-installing-and-managing-coolant-distribution-units-cdus/.
---."数据中心的液体和浸入式冷却选择"。2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.
---."数据中心的液体冷却选择"。2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.
---."在风冷数据中心引入液体冷却时量化对 PUE 和能耗的影响"。2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/blog-posts/quantifying-data-center-pue-when-introducing-liquid-cooling/.
---."了解高性能计算基础设施中的直接芯片冷却:深入了解液体冷却"。2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/educational-articles/understanding-direct-to-chip-cooling-in-hpc-infrastructure-a-deep-dive-into-liquid-cooling/.
---."Vertiv™ CoolPhase CDU | 高密度解决方案"。2025. https://www.vertiv.com/en-us/products-catalog/thermal-management/high-density-solutions/vertiv-coolphase-cdu/.
WGI."冷却人工智能和数据中心"。2025. https://wginc.com/cooling-down-ai-and-data-centers/.