一、散热方案即热传导路径,分为被动与主动
散热是将发热器件产生的热量发散至空气中,其技术原理包括热传导、热对流与热辐射三种。其中热传导和热对流是智能终端散热系统的两种主流方式,其中热传导系统散热功能主要与散热器材料的导热系数和比热容有关,热对流系统散热功能则主要与散热器的散热面积有关。
(1)热传导
热量从系统的一部分传至另一部分或由一个系统传到另一系统。热传导是固体中热传递的主要方式,例如,CPU散热片底座与CPU直接接触带走热量。
(2)热对流
液体或气体中较热部分和较冷部分间通过循环流动使温度趋于均匀的过程,例如,散热风扇带动气体流动。对流是液体和气体中热传递的特有方式。
(3)热辐射
物体依靠射线辐射传递热量。热辐射与热传导、热对流不同,可不依靠媒质自主将热量直接从一个系统传递至另一系统,是在真空中唯一的传热方式。
散热的三种技术原理
资料来源:观研天下数据中心整理
根据散热原理的不同,散热产品分为主动与被动两种。1)主动散热器件采用热对流原理,对发热器件进行强制散热,比如风扇、液冷中的水泵、相变制冷中的压缩机。主动散热器件特点是效率高,但需要其它能源的辅助。2)被动散热采用热传导原理,仅依靠发热体或散热片对发热器件进行降温。手机终端、平板电脑等轻薄型消费电子受内部空间结构限制的影响,多采用被动散热方案。一般地说,热流密度小于0.08W/cm2,采用自然冷却方式;热流密度超过0.08W/cm2,体积功率密度超0.18W/cm3,须采用强迫风冷方式。
资料来源:观研天下数据中心整理
二、热流密度激增,散热将成为产业升级关键隘口
高温会对电子产品性能和可靠性产生不利影响,甚至引发热失效问题,从而引起整个电子产品的故障,相关研究表明,电子元件的故障发生率随工作温度的提高呈指数增长,温度每升高10℃,系统可靠性降低50%,若电子元器件工作热量未能及时疏导,将发生发烫、卡顿、死机等情形。散热问题已成为制约高端电子器件发展的核心要素之一,导热散热材料及元器件主要用于解决电子产品的热管理问题,通过将电子设备内部工作时产生的热量及时、高效地传导到外界,可以有效提升电子产品的可靠性、稳定性和使用寿命。
数据来源:观研天下数据中心整理
作为电子产品组件的核心构成,导热散热行业伴随电子信息技术应用领域的拓宽而迅速发展。近年来,受益于下游消费电子、汽车电子、安防、基站、服务器和数据中心等市场的发展,全球导热散热行业需求持续增长。同时,随着电子信息技术的进步,电子产品发展趋向于高性能化、微型化和密集化,产品内部集成度的提高使其散热空间更为狭小,散热问题更加突出,这一趋势也为导热散热材料行业的发展提供了机会。
根据BCC Research 于2023 年发布的研究报告,2023-2028年,全球热管理市场规模复合增长率为8.5%,市场规模将从2023年的173亿美元增加至2028年的261亿美元,市场空间广阔。
数据来源:BCC Research,观研天下数据中心整理
三、数据中心散热需求旺盛,为热管理企业打开新的增长空间
数据中心作为数字经济基础设施的根基,其规模不断扩容。随着数字技术的创新迭代,云计算、大数据、人工智能(AI)、元宇宙等信息技术与实体经济的融合日益深入,有力推动数字经济实现持续高速增长。在数据量呈爆发式增长的背景下,数据中心市场随之快速扩张。截至2024年底,中国在用数据中心的机架总规模已超880万标准机架。作为“能耗密集型设施”,数据中心的耗电量持续攀升并屡创新高。从典型数据中心的能耗占比来看,制冷系统占比达40%,在各类能耗中仅次于IT设备。
数据来源:CAICT,观研天下数据中心整理
数据来源:《数据中心低PUE技术研究》,观研天下数据中心整理
从政策层面来看,针对数据中心的能耗标准不断提高。在“双碳”目标的大环境下,政府对数据中心PUE(PowerUsageEffectiveness,即电能利用效率)的监管变得越来越严格。2021年7月,工信部出台《新型数据中心发展三年行动计划(2021—2023年)》(工信部通信〔2021〕76 号),其中规定“到2023年底,新建的大型及以上数据中心PUE要降到1.3以下,严寒和寒冷地区则争取降到1.25以下”。同年11月,国家发改委发布《贯彻落实碳达峰碳中和目标要求推动数据中心和5G等新型基础设施绿色高质量发展实施方案》(发改高技〔2021〕1742号),明确“到2025年,新建大型、超大型数据中心的PUE需降至1.3以下,国家枢纽节点的PUE要降至1.25以下”。
数据中心PUE指标要求
发文名称 | 时间 | 发文机构 | 重点内容 |
《关于加强绿色数据中心建设的指导意见》 | 2019年1月 | 工业和信息化部等三部门 | 建立健全绿色数据中心标准评价体系和能源资源部监管体系,打造一批绿色数据中心先进典型。 |
《全国一体化大数据中心协同创新体系算力枢纽实施方案》 | 2021年5月 | 国家发展改革委、中央网信办、工业和信息化部、国家能源局 | 加强绿设计的建设。完善覆盖电能使用效率、算力使用效率、可再生能源利用率等指标在内的数据中心综合节能评价标准体系。 |
《新型数据中心发展三年行动计划(2021-2023年)》 | 2021年7月 | 工业和信息化部 | 到2023年底,全国数据中心机架规模年均增速保持在20%左右,平均利用率力争提升到60%以上,总算力超过200EFLOPS,高性能算力占比达到10%。国家枢纽节点算力规模占比超过70%。新建大型及以上数据中心PUE降低到1.3以下,严寒和寒冷地区力争降低到1.25以下。国家枢纽节点内数据中心端到端网络单向时延原则上小于20毫秒。 |
《贯彻落实碳达峰碳中和目标要求推动数据中心和5G等新型基础设施绿色高质量发展实施方案》 | 2021年11月 | 国家发改委等四部门 | 到2025年,数据中心和5G基本形成绿色集的的一体化运行格局。数据中心运行电能利用效率和可再生能源利用率明显提升,全国新建大型、超大数据中心平均电能利用效率降到1.3以下,国家枢纽节点进一步降到1.25以下,绿色低碳等级达到4A级以上。 |
《深入开展公共机构绿国家机关事务色低碳引领行动促进碳达峰实施方案》 | 2021年11月 | 国家机关事务管理局等四部门 | 推动数据中心绿色化。推动存量“老旧”数据中心升级改造,“小散”数据中心腾退、整合,降低“老旧小散”数据中心能源消耗。新建大型、超大型数据中心全部达到绿色数据中心要求,绿色低破等级达到4A级以上,电能利用效率(PUE)达到1.3以下。鼓励申报绿色数据中心评价,发挥示范引领作用。 |
《工业能效提升行动计划》 | 2022年6月 | 工业和信息化部等六部门 | 推进重点领域能效提升绿色升级。持续开展国家绿色数据中心建设,发布名单及典型案例,加强绿色设计、运维和能源计量审查。引导数据中心扩大绿色能源利用比例,推动老旧数据中心实施系统节能改造。到2025年,新建大型、超大型数据中心电能利用效率优于1.3。 |
《信息通信行业绿色低碳发展行动计划(2022-2025年》 | 2022年8月 | 工业和信息化部等七部门 | 加大先进节能节水技术应用。强化绿色设计,加快自然冷源、近端制冷、液冷等制冷节能技术应用,鼓励采用预制模块化机房及高密度、虚拟化等高效IT系统方案,推广高压直流供电、高效交流不间断电源、集成式电力模块等技术和产品,发展智能化能源管控系统。 |
《关于组织开展2025年度国家绿色数据中心推荐工作的通知》 | 2025年7月 | 工业和信息化部等六部门 | 《绿色数据中心评价》(GB/T44989—2024)二级及以上等级成为硬性门槛,电能利用效率(PUE)不高于1.30,同时要达到《数据中心能效限定值及能效等级》(GB40879—2021)中的2级及以上水平。 |
资料来源:观研天下数据中心整理
全球数据中心能效水平进一步提升。根据UptimeInstitute 统计数据,随着老旧数据中心广泛应用冷热空气隔离、优化冷却控制和提高送风温度等措施,推动全球PUE从2007年的2.5 迅速下降至2014年的1.65。2014年至今,空气冷却仍然占据数据中心冷却主导地位,全球PUE持续下降空间已明显缩窄,导致整体用电量的节约幅度明显弱于2007-2014年期间的水平。全球超大型数据中心加速建设,推动数据中心PUE进一步优化。随着技术以及商业模式发展,数据中心业务形态从机柜租赁转为算力租赁,这要求算力更为高效和集约部署,推动全球超大规模数据中心加速建设。据中国信息通信研究院测算,2023年我国数据中心平均电能利用效率(PUE)为1.48,与2022年的1.54相比有进一步提升,优于全球平均水平。
根据观研报告网发布的《中国热管理行业现状深度研究与发展前景预测报告(2025-2032年)》显示,为减少制冷系统的能耗,近年来业内一直在对制冷技术进行创新与探索。如间接蒸发冷却、冷板式液冷、浸没式液冷等,其中间接蒸发技术的PUE能达到1.25,而液冷技术凭借液体高导热、高传热的特点,在缩短传热路径的同时充分利用自然冷源,可让数据中心的PUE低至1.1,节能效果显著。由于具备绿色节能的优势,液冷技术近年来也成为业内积极采用的重要节能技术。
数据中心制冷技术对应PUE范围
资料来源:《中兴通讯液冷技术白皮书》,观研天下数据中心整理
液冷技术凭借低能耗、高散热效率及低成本(TCO)等特点,满足高功率密度机柜的散热需求。液冷适用于需要提升计算能力、能源效率及部署密度的各类场景。它利用液体高导热、高热容的特性,替代空气作为散热介质,与传统的风冷相比,是解决数据中心散热难题和节能问题的关键技术。
随着算力的不断提升,通信设备性能持续增强,芯片的功耗和热流密度也在不断上升,产品每更新一代,功率密度就会提高30%—50%。目前,主流X86平台的CPU最大功耗已达300—400W,行业内最高的芯片热流密度更是超过了120W/cm²。芯片功率密度的提升带动了整柜功率密度的增长,当前最大已突破30kW/机架。由此,数据中心及相关设备的散热技术也经历了从风冷、水冷到液冷的迭代升级。
为满足不断攀升的算力需求,我国液冷数据中心市场规模逐年扩大。市场增长主要得益于数据中心规模持续扩张、设备功耗不断增加以及节能减排需求日益迫切等因素的共同推动。2023年,中国液冷数据中心市场规模已达约155亿元,较上年增长54.23%;预计2025年市场规模有望达到286亿元。
数据来源:观研天下数据中心整理(wys)

【版权提示】观研报告网倡导尊重与保护知识产权。未经许可,任何人不得复制、转载、或以其他方式使用本网站的内容。如发现本站文章存在版权问题,烦请提供版权疑问、身份证明、版权证明、联系方式等发邮件至kf@chinabaogao.com,我们将及时沟通与处理。