一、冷板式液冷为当下主流,多线并进重构解决方案
根据热器件是否与冷却液接触,液冷技术可以分为直接接触式和间接接触式两种。直接接触式是指将冷却液体与发热器件直接接触散热,这类液体包括单相浸没式液冷、两相浸没式液冷、喷淋式液冷;间接接触式是指冷却液体不与发热器件直接接触,通过散热器间接散热,这类液体包括单相冷板式液冷、两相冷板式液冷。其中,室外侧包含室外冷源、一次侧冷却液,室内侧包含冷量分配单元(CDU)、二次侧冷却液以及液冷机柜。该液冷系统的基本原理是:二次侧冷却液在机柜内吸收设备热量,并通过CDU内的换热器将热量传递给一次侧冷却液,一次侧冷却液通过室外冷源最终将热量释放到大气环境中,完成散热。
液冷技术分类
资料来源:观研天下数据中心整理
根据观研报告网发布的《中国液冷技术行业现状深度分析与发展前景预测报告(2025-2032年)》显示,冷板式液冷系统主要由冷却塔、CDU、一次侧&二次侧液冷管路、冷却介质、液冷机柜组成。液冷机柜内部则包含液冷板、设备内液冷管路、流体连接器、分液器等组件。在冷板式液冷系统运行过程中,服务器内发热元件产生的热量会迅速传导至紧密贴合在其表面的液冷板上。液冷板通常由铜、铝等高导热金属制成,具有优异的导热性能。同时,液冷工质(常见工质包括水、乙二醇水溶液、氟化液等)在CDU循环泵的驱动下进入液冷板,之后在其中通过强化对流换热吸收热量。随后,温度升高的工质通过CDU换热器将热量传递至外部的冷却设备(如冷却塔或热交换器)。在这些冷却设备中,热量被释放到周围大气环境,工质的温度得以降低。冷却后的工质将再次通过循环泵返回至液冷板,从而开始新一轮的散热循环。
冷板式液冷系统原理图
资料来源:《中兴通讯液冷技术白皮书》,观研天下整理
冷板式液冷技术占据当前国内主要市场,具有较高兼容性、可靠性。冷板式液冷技术较早引入中国市场,具有10年以上的技术积累,目前在三种主流液冷技术中成熟度最高、应用范围最广。当前我国冷板式液冷市场占比高达65%,而浸没式液冷和喷淋式液冷市场占比分别为34%和1%。冷板式液冷方案主要有散热效率高、兼容性好、可靠性高等技术优势。具体而言,首先,与传统的风冷技术相比,冷板式利用液体的高比热容等特性能够实现更高效散热,从而提升设备的稳定性和使用寿命,并可有效降低数据中心的PUE值至1.25以下,远低于传统风冷方案的1.5左右。其次,冷板式液冷技术具有较好的兼容性,其可以在保留现有的服务器主板等硬件架构下进行改装,在技术及规模化生产上具有较高的可行性。此外,由于冷板式液冷技术中冷却液与设备不直接接触,减少了因液体泄漏导致的设备损坏风险,该技术具有较高的可靠性。但是,与直接接触型液冷方式相比,冷板式液冷技术在热交换受到液冷板的限制,散热效率相对较低。
数据来源:观研天下数据中心整理
二、液冷技术作为一种高效散热解决方案,已逐渐高能耗领域中得到广泛应用
液冷技术作为一种高效散热解决方案,已逐渐在数据中心、高性能计算(HPC)和电子设备等高能耗领域中得到广泛应用。
从发展脉络来看,液冷技术普及主要经历几个阶段:
商用初步应用期(1980s-2000年):液冷技术开始尝试进入计算和电子设备领域,但规模有限。这一时期,液冷技术逐渐成熟,冷板式液冷初具雏形,成为高性能计算机、服务器和一些实验室设备的散热选择。快速发展期(2000年-2015年):进入21世纪后,电子设备的性能和热密度迅速提高,特别是在数据中心和高性能计算领域。这一阶段液冷技术的安装和维护成本逐渐下降,设备逐步小型化、模块化,开始在企业级服务器和数据中心中普及。冷板式液冷技术在此阶段逐渐标准化,因其设计灵活且与传统设备兼容性较好,得到广泛应用。同时,浸没式液冷在一些实验性数据中心中开始试点应用。
多元化与标准化期(2015年-2024年):随着高性能计算需求的激增,液冷技术在高热密度的应用场景中进一步普及,特别是随着人工智能、机器学习和大数据的普及,数据中心和超级计算机对液冷技术需求增加。冷板式液冷成为主流应用,尤其在高性能计算和数据中心领域实现广泛部署,已成为许多现代数据中心的标准技术之一。同时,浸没式液冷在高功率密度的数据中心中得到更成熟的应用,喷射冷却、微通道液冷等创新技术也在特定应用中试点,推动液冷散热的多样化。
未来发展趋势(2024年及未来):绿色数据中心的需求将推动液冷技术的创新,预计更多企业会探索液冷在大规模部署中的可行性。未来液冷技术可能会向自适应智能化冷却方向发展,通过物联网和人工智能技术实现实时的温度监控和动态调整。冷板式液冷在大型数据中心和云计算领域继续普及;浸没式液冷预计在高功率应用中逐渐被采用;新型智能化液冷技术将有助于推动数据中心和计算系统向绿色环保方向发展。
液冷技术发展脉络
资料来源:观研天下数据中心整理
三、需求层面:智算中心催生高算力芯片,系统级功耗大幅提高
ChatGPT引爆的生成式AI浪潮让智能算力需求呈爆发式上升,数据中心产业投资开始从通用算力中心迅速转向智能算力中心。
通用算力是基于CPU提供的基础计算能力,智能算力是依靠GPU、FPGA、ASIC等芯片加速特定类型的运算;根据工信部印发的《算力基础设施高质量发展行动计划》定义,智能计算中心是通过使用大规模异构算力资源,包括通用算力和智能算力,主要为人工智能应用(如人工智能深度学习模型开发、模型训练和模型推理等场景)提供所需算力、数据和算法的设施。
智算中心在芯片体系、网络拓扑和软件栈上都与传统数据中心存在本质差异,其核心价值在于按需聚合、调度GPU级别的高并行算力,机柜功率、带宽密度和服务器整机规模均远超传统云数据中心。
为了满足不断攀升的算力需求,海外以英伟达为首,国内以华为为首的服务器供应商陆续推出匹配智算中心需求的芯片架构及系统方案:
英伟达:Blackwell架构下已经实现量产出货的三款产品B100-B200-GB200,单芯片半精度(FP16)算力从1.8Pflops提升至5Pflops,同时最大热设计功率(TDP)从700W提升至2700W,从最新发布的B300/GB300来看,GB300算力较GB200提升50%,B300TDP较B200增加200W。
华为:910B半精度(FP16)算力达320Tflops,最大功耗400W,2024年Q4推出910C,半精度(FP16)算力飞涨至780Tflops,相同任务下功耗降低30%。
虽然从单芯片参数上,国内与海外还存在代差,但华为提出基于910C的纵向扩展解决方案CloudMatrix384半精度算力达到英伟达GB200-NVL72的1.7倍,CM384通过多对多拓扑连接384个昇腾910C芯片,且由于横向及纵向拓展网络大规模采用400G光模块而非铜缆,总系统功耗较高、接近600kW。
华为CM384系统算力优于英伟达NVL72
资料来源:公开资料、观研天下整理
随着单芯片及机柜级功率密度提升,传统的风冷方案难以充分冷却设备,TGG建议把15-25kW机柜功率作为“未使用背板换热器等其他制冷设备”的风冷解决方案的上限,一般认为机柜功率密度20kW以上的人工智能集群不适宜采用风冷方案。据统计,英伟达GB300OEM/ODM厂商均采用全液冷架构。国内华为910C单芯片虽然还未达到必须采用液冷的功耗门槛,但从系统级能耗来看,CM384方案对散热提出了更高要求。
不同冷却技术对应的机柜功率
资料来源:《相变浸没式液冷系统研究》,观研天下整理
四、政策层面:数据中心PUE指标趋严,老旧存量项目面临关停
PUE(PowerUsageEffectiveness)是评估数据中心效率水平的重要指标,PUE=数据中心消耗的所有能源/IT负载消耗的能源,其中IT负载消耗是指用于计算、存储和网络设备的电力和能源,PUE越接近1,数据中心的能效水平越好。
作为“新基建”的数字底座与核心代表,数据中心在国家“双碳”目标战略框架下被赋予更高维度的绿色发展使命。国家层面对于大型数据中心PUE指标要求逐年提高,根据2024年7月国家发改委、工信部、能源局、数据局联合发布的《数据中心绿色低碳发展专项行动计划》,要求到2025年底,新建及改扩建大型和超大型数据中心PUE降至1.25以内,国家枢纽节点数据中心项目PUE不得高于1.2。
国家层面对数据中心能效要求逐年提高
时间 |
政策 |
具体要求 |
2017年 |
《“十三五”节能减排综合工作方案》 《关于加强“十三五”信息通信业节能减排工作的指导意见》 |
国务院:新建大型云计算数据中心PUE<1.5 工信部:2020年,新建大型、超大型数据中心PUE<1.4 |
2019年 |
《关于加强绿色数据中心建设的指导意见》 |
工信部、国管局、能源局:2022年,新建大型、超大型数据中心PUE<1.4 |
2020年 |
《关于加快构建全国一体化大数据中心协同创新体系的指导意见》 |
发改委、工信部、能源局:大型、超大型数据中心PUE<1.3 |
2021年 |
《新型数据中心发展三年行动计划(2021-2023年)》 《绿色数据中心政府采购需求标准(试行)》 |
工信部:2021年,新建大型及以上数据中心PUE<1.35;到2023年,新建大型及以上数据中心PUE<1.3,严寒和寒冷地区力争降<1.25 财政部、生态环境部:2023年6月起,数据中心PUE≤1.4,2025年起,数据中心PUE≤1.3。 |
2022年 |
《信息通信行业绿色低碳发展行动计划(2022-2025年)》 |
工信部、发改委、财政部等:到2025年,全国新建大型、超大型数据中心PUE<1.3;改建核心机房PUE<1.5 |
2024年 |
《数据中心绿色低碳发展专项行动计划》 |
发改委、工信部、能源局、数据局:2025年底,全国数据中心平均PUE<1.5;新建及改扩建大型和超大型数据中心PUE<1.25;国家枢纽节点数据中心项目PUE<1.2。 |
资料来源:观研天下数据中心整理
除了国家层面对数据中心能耗指标提出硬性要求外,各省市对不符合要求的存量低效数据中心提出了严格的改造或关停要求。例如北京市《北京市存量数据中心优化工作方案(2024-2027年)》中提出引导全年电力能源消耗量在5GWh及以上、PUE>1.35的存量数据中心完成绿色低碳改造、转型为智能算力中心,2026年起对PUE值高于1.35的数据中心征收差别电价;上海市《上海市推动大规模设备更新和消费品以旧换新行动计划(20242027年)》中提出加快既有数据中心升级改造,将规模小、效益差、能耗高的小散老旧数据中心纳入产业限制和淘汰目录,加大高效制冷技术和新能源推广应用力度。
各省市对PUE不符合要求的数据中心提出改造、退出等政策
地区 |
政策 |
具体内容 |
北京 |
《北京市存量数据中心优化工作方案(2024-2027年)》 |
执行差别电价,对于PUE>1.35且≤1.7的项目,每度电加价0.2元;对于PUE>1.7的项目,每度电加价0.5元。 |
上海 |
《上海市推动大规模设备更新和消费品以旧换新行动计划(2024-2027年)》 |
将规模小、效益差、能耗高的小散老旧数据中心纳入产业限制和淘汰目录,力争改造后PUE≤1.4。 |
广东 |
《关于加强数据中心布局建设的意见》 |
推动已建成并通过节能审查的数据中心,按PUE值不高于1.5的目标进行改造升级。按实际运行PUE执行阶梯化用电价格。 |
河北 |
《关于进一步优化算力布局推动人工智能产业创新发展的意见》 |
加快推进PUE>1.5的存量数据中心高效低碳改造提升,加快“老旧小散”数据中心迁移整合和节能改造。 |
甘肃 |
《关于支持全国一体化算力网络国家枢纽节点(甘肃)建设运营若干措施》 |
加快推动现有“老旧小散”数据中心的迁移、整合,引导督促;利用率低、能耗高、效益差以及PUE>1.5的存量数据中心进行改造。 |
江苏 |
《江苏省算力基础设施发展专项规划》 |
完成“老旧小散”数据中心关停并转、升级改造。 |
杭州 |
《关于杭州市数据中心优化布局建设的意见》 |
淘汰能效水平低、功能单一、规模小、效益差、资源浪费严重的数据中心,新建项目PUE<1.4,改造项目PUE<1.6。 |
内蒙古 |
《关于支持内蒙古和林格尔集群绿色算力产业发展的若干意见》 |
加强存量数据中心绿色化改造,有序腾退年均PUE值高于1.5的落后数据中心。 |
资料来源:观研天下数据中心整理
在运行成本结构中,制冷系统一直是仅次于IT负载的第二能耗大户,当前数据中心制冷能耗占约20%-30%,传统风冷方案下能耗可达50%-70%,因此降低制冷系统的能耗可以显著提高数据中心的电能利用效率,相比空气,液体凭借更高的热传导效率,能够在更低的能源消耗下实现更好的散热效果,从而进一步降低PUE。
PUE与冷却方式对应表
资料来源:《中兴通讯液冷技术白皮书》,观研天下整理(wys)

【版权提示】观研报告网倡导尊重与保护知识产权。未经许可,任何人不得复制、转载、或以其他方式使用本网站的内容。如发现本站文章存在版权问题,烦请提供版权疑问、身份证明、版权证明、联系方式等发邮件至kf@chinabaogao.com,我们将及时沟通与处理。