> **来源:[研报客](https://pc.yanbaoke.cn)** 汽车零部件Ⅱ 2025年12月29日 # 数据中心液冷行业深度研究报告 # AIDC 投建带动液冷市场扩容,汽零公司快跑入局 □ AI加速发展,液冷有望成为未来数据中心主流散热方案。全球AI加速发展背景下:1)AI大模型密集发布,驱动数据中心建设需求增长。全球云厂不断追加资本开支,万亿美元投资计划逐步开启。2)模型更迭驱动算力需求提升,进一步带动芯片、服务器及数据中心功率密度提升,同时也增加系统整体发热功率。为保障系统的安全性、稳定性以及使用寿命,系统热管理重要性更加突出,相较传统风冷,高功率情形下液冷方案拥有低能耗成本(风冷PUE值约1.4-1.6、液冷约1.05-1.2)、高散热(2MW机房中液冷散热功率密度约为风冷的4-9倍)等显著优势,逐渐替代风冷成为数据中心主流散热方案。 □冷板式液冷是成熟的短期主流方案,浸没式未来有望满足超算需求。液冷技术路线多样,主要包括:非接触式(冷板式)及接触式(浸没式、喷淋式等)两大类。冷板式液冷由于技术相对成熟,生态完善,对机柜和服务器改造成本低,初期投资少,运维模式、机房称重与风冷场景也基本一致等优势为当前主流液冷方案,伴随着超算中心芯片功耗提升,以及碳中和背景下主要国家和地区对数据中心的电能利用效率PUE等指标提出了更为严格的要求,未来浸没式液冷拥有更低能耗将有望成为智算中心高功率密度散热主要方案。 □英伟达GB系产品冷板式液冷系统总价值约7-10万美元。冷板式液冷系统包括一次侧(室外侧)和二次侧(室内侧)两部分,核心二次侧主要由CDU、管路、阀件、液冷板、快插接头和Manifold等部件组成。以英伟达GB200、GB300方案为例,冷板式液冷二次侧价值量约600-800美元/kW。GB系产品液冷系统总价值量约7-10万美元。 乐观预计2026年全球冷板式液冷规模有望超百亿美元。基于英伟达最新指引,我们估计2025-2026年英伟达GPU出货量分别为920、1250万颗。随着新一代系统架构推出,液冷占比也将提升。预计2025-2026年英伟达GPU对应冷板式液冷需求有望达到69、173亿美元,其他厂商ASIC芯片的液冷需求估计为5、12亿美元。 □ 液冷产业链格局分数,汽零公司立足上游零部件拓展入局。液冷产业链主要涵盖上游的零部件及IT设备、中游解决方案(集成商)及下游应用场景(数据中心、AI算力、电子终端等领域)三个环节。汽零公司多以汽车热管理(三花、银轮等)及汽车管路(凌云、川环、飞龙等)起家,并顺产业研发进而入局,产品多为液冷上游零部件泵、阀、管路、快接头、Manifold等,有望凭借多年技术积累及精密制造优势快速打开市场。 □英伟达AI芯片不断迭代,同样深刻影响液冷方案发展。2025GTC大会上,英伟达发布下一代AI芯片,功耗预计将超过2000W。RubinGPU的热功耗甚至可能从原先预期的1.8kW提高至2.3kW,已经超过了现行冷板的散热负荷,因此对散热提出了极高要求,“微通道水冷板(MLCP)”技术有望成为下一代散热主流趋势。 □ 投资建议:看好AI发展背景下的液冷产业链成长趋势,建议重点关注两类投资机会:1)英伟达产业链:散热模组及组件供应商,关注英维克、维谛技术、比亚迪电子、富士康等;2)新晋跨行汽零企业:推荐银轮股份、凌云股份、敏实集团,建议关注川环科技、飞龙股份等。 风险提示:数据中心建设不及预期、国产液冷方案发展不及预期、地缘政策风险、测算可能因因素考虑不全存在误差等。 推荐(维持) # 华创证券研究所 # 证券分析师:张程航 电话:021-20572543 邮箱:zhangchenghang@hcyjs.com 执业编号:S0360519070003 # 证券分析师:夏凉 电话:021-20572532 邮箱:xialiang@hcyjs.com 执业编号:S0360522030001 行业基本数据 <table><tr><td></td><td></td><td>占比%</td></tr><tr><td>股票家数(只)</td><td>195</td><td>0.03</td></tr><tr><td>总市值(亿元)</td><td>23,487.87</td><td>1.93</td></tr><tr><td>流通市值(亿元)</td><td>19,331.69</td><td>1.97</td></tr></table> 相对指数表现 <table><tr><td>%</td><td>1M</td><td>6M</td><td>12M</td></tr><tr><td>绝对表现</td><td>7.3%</td><td>24.9%</td><td>38.2%</td></tr><tr><td>相对表现</td><td>4.8%</td><td>6.6%</td><td>21.6%</td></tr></table> # 相关研究报告 《【华创汽车】汽车座椅行业深度研究报告:困局已破,座椅国产化之路曙光在即》 2025-02-08 # 投资主题 # 报告亮点 1)阐述全球AI加速发展下的数据中心热管理行业趋势; 2)对比液冷方案优劣势,拆分冷板式液冷各环节价值量; 3)梳理液冷产业链,挖掘前沿动态及投资机会。 # 投资逻辑 随着AI大模型的快速迭代与算力需求激增,数据中心功率密度持续攀升,传统风冷散热难以满足高热流密度下的稳定运行要求,液冷技术凭借能效优势和高散热能力,正成为AI数据中心主流散热方案。 我们预计全球AI冷板式液冷市场规模有望从2025年的75亿美元跃升至2026年的185亿美元,短期成长爆发力强劲。 产业链涵盖上游零部件(泵、阀、管路、快接头等)、中游系统集成及下游应用,竞争格局尚处分散阶段,跨行业竞争特征明显。尤其值得关注的是,一批汽车零部件企业依托在热管理系统和精密制造领域的深厚积累,正积极切入液冷上游赛道,展现出较强的产品适配能力和成本控制优势。 重点把握两类投资机会:1)英伟达产业链;2)新晋跨行汽零企业。 # 目录 # 一、AI加速发展,有望促进液冷成为数据中心主流散热方案. 6 (一)趋势1:AI大模型密集发布,驱动数据中心建设需求增长 6 1、云厂商竞争加剧,AI大模型密集发布 6 2、数据中心建设需求旺盛,全球资本开支有望达万亿美元 (二)趋势2:液冷有望替代风冷成主要散热方案 1、数据中心功率密度持续提升,系统热管理重要性突显 2、较传统风冷,高功率情形下液冷方案优势显著 # 二、2026年冷板式液冷市场空间有望超百亿美元 11 (一)方案优势:液冷长期性价比强,国内外需求存差异 11 1、液冷初始投资在运维成本的作用下逐年摊薄,具备长期性价比优势…… 11 2、液冷的长期性价比优势因全球电价不同呈现显著性差异 11 (二)方案路线:路线多样,英伟达GB系冷板式液冷价值约7-10万美元……13 1、方案:冷板式、浸没式、喷淋式 13 2、价格:冷板式液冷单机柜二次侧价值量约为 $700+$ 美元/kW 15 (三) 路线选择: 冷板式渐成主流, 浸没式未来有望满足超算需求. 17 1、冷板式:技术成熟、综合成本优势,率先大规模商业化落地 2、浸没式:低能耗但部署难度高,满足超算中心精细要求 18 (四)交付方式:从系统交付走向解耦交付 19 (五)规模测算:乐观预计2026年全球AI液冷市场规模约185亿美元 20 # 三、产业链格局分散,英伟达引领产业升级 22 (一)汽零入局:立足上游部件生意,暂避中下游激烈竞争 22 1、产业链全景:零部件、解决方案、应用场景 22 2、汽零布局:从汽车热管理跨行进入数据中心热管理 22 (二)英伟达:引领芯片发展潮流,带动液冷产业链升级 23 1、英伟达技术方案推陈出新,台系液冷产业链公司合作紧密 23 2、产业链代表公司:维谛技术、英维克、中科曙光 25 # 四、投资建议 28 # 五、风险提示 29 # 图表目录 图表 1: 全球主要大模型发布时间 图表 2: 国内大模型备案数量 (个) 图表3:北美数据中心建设计划 7 图表 4: 北美 TOP4 云厂商资本开支 (亿美元) 图表 5:国内云厂商季度资本开支(亿元)............8 图表 6: 全球数据中心市场规模及预测 (十亿美元) 图表 7: 全球数据中心功率规模 (GW) 图表8:中国、美国及欧洲PUE政策要求 9 图表 9: 液冷散热能力&风冷散热能力 ..... 10 图表 10: 液冷耗电量&风冷耗电量 图表 11: 机架功率密度与冷却方式 ..... 10 图表 12: 数据中心散热方案成本维度对比 图表 13:20kW、40kW/机架的液冷数据中心较风冷可分别节省 10%/14%的投资成本 11 图表 14: 全球主要国家平均销售电价 (人民币元/千瓦时) 图表 15: D2C 液冷方案与风冷 TCO 测算. 12 图表 16: 三种液冷技术对比 ..... 13 图表 17: 冷板式液冷原理图 图表 18: 单相浸没式液冷原理图 ..... 14 图表 19: 两相浸没式液冷原理图 图表 20: 喷淋式液冷原理图 ..... 14 图表 21: 液冷系统工况设计 ..... 15 图表 22: 冷源选型对比 ..... 15 图表 23:数据中心散热方案价值量对比 ..... 16 图表 24: GB200 NVL72 液冷系统单机柜二次侧价值量测算. 16 图表 25: GB300 NVL72 液冷系统单机柜二次侧价值量测算 图表 26: 全球液冷数据中心渗透率预测 图表27:冷板式液冷vs浸没式液冷 18 图表 28: 英伟达不同芯片架构对应参数表 ..... 18 图表 29: 典型数据中心能耗占比 ..... 19 图表 30: 冷板式液冷交付方式对比 ..... 20 图表 31: 英伟达不同系列 GPU 出货量预测 (万颗) ..... 21 图表 32: 英伟达 GPU、ASIC 芯片出货量预测 (万颗) ..... 21 图表 33:英伟达服务器产品液冷渗透率预测 ..... 21 图表 34:服务器液冷市场规模预测(亿美元) ..... 21 图表 35:智算中心液冷产业链全景 ..... 22 图表 36:国内相关汽零公司液冷业务布局(部分) ..... 23 图表 37: Blackwell & Rubin 对比 ..... 24 图表 38:英伟达未来产品路线图 ..... 25 图表 39: Vertiv™ CoolLoop Chiller 水冷磁悬浮冷水机组特性与优势. 26 图表 40: 英维克 Coolinside 全链条液冷解决方案 ..... 26 图表 41: 中科曙光解决方案 ..... 27 # 一、AI加速发展,有望促进液冷成为数据中心主流散热方案 AI浪潮下大模型更迭频繁,显著驱动算力需求提升,进而带动散热需求提升。AIDC服务器芯片功耗与算力密度持续攀升,设备功率密度逐渐突破传统风冷降温方式极限。液冷凭借其散热效率与部署方式的优势,正在成为数据中心的主流散热方案。 # (一)趋势1:AI大模型密集发布,驱动数据中心建设需求增长 # 1、云厂商竞争加剧,AI大模型密集发布 全球云厂商加码AI,大模型数量爆发式增长。自2022年ChatGPT-3.5发布以来,大模型开始进入大众视野,国内外众多厂商如OpenAI、Meta、Anthropic、谷歌以及国内的腾讯、字节、DeepSeek等均开始推出新模型并不断迭代更新。 图表 1: 全球主要大模型发布时间 资料来源:DataLearner、OpenAI官网、Meta官网、谷歌官网、Anthropic、火山引擎官网、X官网、月之暗面Kimi公众号、千问官网、腾讯云官网、Gtihub、华创证券 分区域:海外大模型巨头众多、国内大模型聚焦性能优化。海外主流AI模型竞争玩家包括:技术能力以及用户数全球领先的OpenAI系GPT模型、背靠亚马逊/谷歌投资的Anthropic模型Claude、谷歌自研模型Gemini、Meta自研模型Llama、马斯克旗下自研模型xAI等。截止2025年9月,国内完成备案的大模型数量已达890个,较2024年10月的464个增长 $92\%$ 。国内优秀大模型侧重性能优化,对标GPT-5.0,同时在训练成本、API价格方面具备显著优势。 图表 2: 国内大模型备案数量 (个) 资料来源:国家互联网信息办公室、华创证券 # 2、数据中心建设需求旺盛,全球资本开支有望达万亿美元 随AI训练及推理需求持续增长,云端算力基础设施需求旺盛。北美市场方面,头部云厂商资本开支强劲增长并持续上调指引。2025年1月21日,美国总统宣布OpenAI、软银和甲骨文将共同投资建设的AI基础设施项目“星际之门”,计划在未来4年内投资5000亿美元。目前,该计划已确定将在美国新建5个AI数据中心,未来三年内投资将超过4000亿美元,最终目标是实现近7千兆瓦的算力容量。 图表 3:北美数据中心建设计划 <table><tr><td>厂商</td><td>2022/2023年</td><td>2024年</td><td>截至2025年12月</td><td>2025年及以后</td></tr><tr><td>微软</td><td>投资约$10B用于全球扩张,包括澳大利亚$3.3B和英国$3.2B云基础设施</td><td>Q4资本支出$19B,约一半用于AI数据中心</td><td>已建成超过400个数据中心,覆盖70个地区</td><td>2025预计投资$80B用于开发数据中心,,目标2025年底新增容量至1.5GW</td></tr><tr><td>亚马逊</td><td>开始使用低碳材料建设43个数据中心</td><td>上半年资本支出$50B+</td><td>超过108个可用区,覆盖34个地区</td><td>计划在未来15年内投资1500亿美元用于全球数据中心的建设与运营,其中智算中心将是重点投资领域之一</td></tr><tr><td>谷歌</td><td>启动亚利桑那第一个数据中心</td><td>投资数十亿美元,包括印第安纳和内布拉斯加项目</td><td>175个数据中心,覆盖60个地区</td><td>计划在2025年投资约750亿美元用于服务器采购、数据中心建设及支持谷歌云、DeepMind等业务</td></tr><tr><td>Meta</td><td>2023年投资$27B capex</td><td>投资$37B capex</td><td>30个数据中心运营/建设中</td><td>计划从私人资本公司筹集290亿美元,以在美国建设人工智能数据中心</td></tr><tr><td>甲骨文</td><td>2023年资本支出同比增长93%</td><td>亚太云区域扩展至12个</td><td>101个云区域</td><td>三年计划,包括20个新地区和8个AI超级集群</td></tr></table> 资料来源:各公司官网、Bloomberg、环球网、CIO DIVE、DCD、CRN、GPEC、Data Centre Magazine、华创证券 2025年北美四大云厂商资本开支同比高增,预计2026年延续AI基建投资的高景气。2025,四大云厂商合计资本开支同比预计增长 $54.8\%$ 。谷歌、Meta等公司纷纷上调2025年资本开支指引,并看好2026年延续增长态势,全球AI基建投资景气高涨。 国内头部云厂商也公布了巨额投资计划,远超往年同期。阿里巴巴宣布未来三年在云和AI基础设施的投入将超过3800亿元,超过过去十年总和。字节跳动则表示明年将投入1600亿人民币用于AI领域。 图表 4:北美 TOP4 云厂商资本开支(亿美元) 资料来源:Bloomberg、华创证券 图表 5:国内云厂商季度资本开支(亿元) 资料来源:Bloomberg、华创证券 2034年数据中心市场规模或超万亿美元,10年CAGR为 $11\%$ 。数据中心是数字经济的核心基础设施,其发展规模与增速直接反映了全社会算力需求的旺盛程度。根据Precedence Research预测,全球数据中心市场规模有望从2025年约4000亿美元增长至2034年破万亿美元,10年CAGR为 $11\%$ 图表 6:全球数据中心市场规模及预测(十亿美元) 资料来源:Precedence Research、华创证券 # (二)趋势2:液冷有望替代风冷成主要散热方案 # 1、数据中心功率密度持续提升,系统热管理重要性突显 随算力需求提升,芯片及服务器功率不断攀升,英伟达最新机柜功耗已达 $120\mathrm{kW}$ 。以业界领先的英伟达Blackwell系列为例,其B300芯片功耗已达1200W,较前代B200的1000W同比提升 $20\%$ 。而集成了多颗芯片的NVL72 GB300系统机柜总功耗更是高达约 $120\mathrm{kW}$ 。根据麦肯锡预测,至2030年,全球数据中心功率规模预计将达到219GW,5年CAGR为 $22\%$ ,其中人工智能工作负载占比将从2025年的 $53.7\%$ 增长至 $71.2\%$ 芯片、服务器及数据中心功率密度的提升也将增加系统整体发热功率。为保障系统的安全性、稳定性以及使用寿命,系统热管理重要性突显。 图表 7: 全球数据中心功率规模 (GW) 资料来源:施耐德电气《大型数据中心浸没式液冷与风冷投资成本分析》、华创证券 # 2、较传统风冷,高功率情形下液冷方案优势显著 相较于传统风冷,液冷技术PUE值更低,更符合现行政策要求。由于液体的比热容与导热系数远高于空气,液冷系统能直接、高效地带走高功率芯片产生的热量,轻松应对单芯片kw级乃至整机柜数十千瓦的散热挑战。同时,液冷系统能够通过减少甚至取代高能耗的风扇群,并利用高温液体制冷实现自然冷却,将数据中心的PUE显著降至1.2以下,实现制冷环节高达 $30\%$ 以上的节电效果,符合各国现行PUE政策要求。 图表 8:中国、美国及欧洲 PUE 政策要求 <table><tr><td>国家</td><td>PUE 政策要求</td></tr><tr><td>中国</td><td>我国《数据中心绿色低碳发展专项计划》规定,到2025年底,全国数据中心整体上架率不低于60%,PUE降至1.5以下;新建及改扩建大型和超大型数据中心PUE降至1.25以内,且国家枢纽节点数据中心项目PUE<=1.2。</td></tr><tr><td>美国</td><td>美国通过数据中心优化计划(DCOI)从联邦层面规范能源消耗,根据DCOI,现有联邦数据中心需在2018年9月30日前达到PUE<=1.5,新建项目需<=1.4,且要求强制</td></tr><tr><td></td><td>安装数据中心基础设施管理软件,实现能耗实时监控。</td></tr><tr><td>欧洲</td><td>德国要求2027年7月起,现有数据中心需满足PUE<1.5,2030年进一步降至<1.3;2026年7月起,新建数据中心PUE需<1.2。</td></tr><tr><td colspan="2">资料来源:中国发改委官网、美国管理和预算办公室、德国联邦法律公报、华创证券注:PUE(能效指标)=总能耗/IT设备能耗,理论最优值近似为1.0</td></tr></table> # 以2MW机房为例,液冷方案在散热能力与运营能耗成本维度优势明显。 1)散热能力:液冷(冷板式、浸没式)方案散热功率密度、占地面积显著优于风冷方案; 2)能耗成本:运维角度,液冷的冷却能耗和冷却电费低于风冷方案。 特别地,风冷方案的特点主要在于购置成本低、部署与维护简单。根据Vertiv白皮书,随着机架功率密度的提升,数据中心更适用于部署液冷散热方案。 图表 9:液冷散热能力&风冷散热能力 资料来源:中兴通讯《液冷技术白皮书(2022)》、华创证券 注:以2MW机房为例 图表 10: 液冷耗电量&风冷耗电量 资料来源:中兴通讯《液冷技术白皮书(2022)》、华创证券 注:以2MW机房为例 图表 11:机架功率密度与冷却方式 资料来源:维谛技术官网、华创证券 # 二、2026年冷板式液冷市场空间有望超百亿美元 # (一)方案优势:液冷长期性价比强,国内外需求存差异 # 1、液冷初始投资在运维成本的作用下逐年摊薄,具备长期性价比优势 液冷较低的运维成本源于其PUE值更低。在数据中心散热方案中,液冷初始投资成本大,但PUE值更低,因此运维成本更小。浸没式液冷PUE值小于1.09,冷板式液冷为1.1-1.2,对比风冷的 $1.4 - 1.6+$ ,液冷能效优势显著。经施耐德电气测算,以功率为 $20\mathrm{kW}$ 、 $40\mathrm{kW}$ 的液冷数据中心为例,液冷较风冷分别可节省 $10\%$ 、 $14\%$ 的投资成本,每瓦投资成本随功率密度提升持续降低,在长期运营中具备突出的性价比优势。 图表 12:数据中心散热方案成本维度对比 <table><tr><td></td><td>风冷</td><td>冷板式液冷</td><td>浸没式液冷</td></tr><tr><td>PUE值</td><td>1.4-1.6+</td><td>1.1-1.2</td><td><1.09</td></tr><tr><td>初始投资成本</td><td>小</td><td>中</td><td>大</td></tr><tr><td>运维成本</td><td>大</td><td>中</td><td>小</td></tr></table> 资料来源:MIR睿工业、零氪、硬科技洞察、华创证券 图表 13:20kW、40kW/机架的液冷数据中心较风冷可分别节省 10%/14%的投资成本 资料来源:施耐德电气《大型数据中心浸没式液冷与风冷投资成本分析》、华创证券 # 2、液冷的长期性价比优势因全球电价不同呈现显著性差异 国内电价显著低于全球平均水平,液冷方案对于国外服务器终端客户更具性价比优势。从电价维度看,全球主要国家销售电价差异悬殊,2022年我国以0.652元/千瓦时的平均电价处于低位,而英国、德国分别高达2.674元/千瓦时、1.965元/千瓦时,美国也达到0.833元/千瓦时,均高于我国,在高电价的欧美市场,浸没式液冷的成本优势被大幅放大。经超微测算,以美国 $50.4\mathrm{kW}$ 的机架为例,按当地约0.8元/kWh的电价测算,三年可节省电费60067美元,而以中国约0.6元/kWh的电价测算,三年仅可节省电费37550美元,这种分化也意味着,液冷技术的商业化进程和市场空间将因电价差异呈现明显的区域特征。 图表 14:全球主要国家平均销售电价(人民币元/千瓦时) 资料来源:国际能源署、中能传媒研究院、华创证券 注:电价为2022年数据 图表 15: D2C 液冷方案与风冷 TCO 测算 <table><tr><td></td><td>DLC Liquid Cooled</td><td>Air Cooling</td><td>Notes, Advantages</td></tr><tr><td>GPU Server with 2 Sockets and 8 H100 GPUs (Watts)</td><td>6300</td><td>7000</td><td>Fan power is reduced or eliminated</td></tr><tr><td>Number of Servers/Rack</td><td>8</td><td>8</td><td></td></tr><tr><td>Power Per Rack (Watts)</td><td>50400</td><td>56000</td><td></td></tr><tr><td>PUE</td><td>1.1</td><td>1.5</td><td>Lower PUE with no AC Needed</td></tr><tr><td>Total Power Needed Per Rack (Watts)</td><td>55440</td><td>84000</td><td></td></tr><tr><td>Total kWh ( 1 year)</td><td>$485,654</td><td>$735,840</td><td></td></tr><tr><td>Cost Per KW (USA Average)</td><td>$0.12</td><td>$0.12</td><td></td></tr><tr><td>Cost Per KW (China Average)</td><td>$0.09</td><td>$0.09</td><td></td></tr><tr><td>Cost For 1 Year ($) (USA)</td><td>$58,279</td><td>$88,301</td><td></td></tr><tr><td>Cost For 1 Year ($) (CHINA)</td><td>$45,235</td><td>$68,538</td><td></td></tr><tr><td>Cost For 3 Years ($) (USA)</td><td>$174,836</td><td>$264,902</td><td></td></tr><tr><td>Cost For 3 Years ($) (CHINA)</td><td>$135,706</td><td>$205,615</td><td></td></tr><tr><td>Cost to Implement LC</td><td>$30,000</td><td></td><td></td></tr><tr><td>3 Year Savings (per rack) (USA)</td><td>$60,067</td><td></td><td></td></tr><tr><td>3 Year Savings (per rack) (CHINA)</td><td>$39,909</td><td></td><td></td></tr></table> 资料来源:Supermicro "Liquid Cooling for Supermicro Servers"、华创证券测算 注:美国测算电价为0.12美元/kWh(约人民币0.84元/kWh),中国测算电价约为0.09美元/kWh(人民币0.652元/kWh) # (二)方案路线:路线多样,英伟达GB系冷板式液冷价值约7-10万美元 # 1、方案:冷板式、浸没式、喷淋式 服务器液冷散热分为接触式及非接触式两种,接触式包括喷淋式液冷、浸没式液冷(相变浸没式和单相浸没式),非接触式液冷为冷板式液冷。 图表 16: 三种液冷技术对比 <table><tr><td rowspan="2">类型</td><td rowspan="2">冷板式</td><td colspan="2">浸没式</td><td rowspan="2">喷淋式</td></tr><tr><td>单相浸没</td><td>两相浸没</td></tr><tr><td>原理</td><td>通过设置在设备内部的液冷板间接传递发热器件的热量至循环管路中的冷却液体,利用冷却液体将热量有效带走,实现散热</td><td>服务器完全浸没在冷却液中,冷却液蒸发冷凝相变带走热量</td><td>服务器完全浸没在冷却液中,冷却液循环流动带走热量</td><td>冷却液从服务器顶部喷淋,对流换热降温</td></tr><tr><td>投资成本</td><td>初始投资中等,运维成本低</td><td>初始投资及运维成本高</td><td>初始投资及运维成本高</td><td>结构改造及液体消耗成本大,液冷系统初始投资成本低</td></tr><tr><td>PUE</td><td>1.1-1.2</td><td><1.05</td><td><1.09</td><td><1.1</td></tr><tr><td>可维护性</td><td>较简单</td><td>复杂</td><td>复杂</td><td>复杂</td></tr><tr><td>应用案例</td><td>多</td><td>超算领域较多</td><td>较多</td><td>数据中心场景无批量使用</td></tr><tr><td>分析</td><td>初始投资中等,运维成本低,PUE收益中等,部署方式与风冷相同,从传统模式过渡较为平滑</td><td>初始投资最高,PUE收益最高,需要使用专用机柜,服务器结构需要改造为刀片式</td><td>初始投资较高,PUE收益较高,部分部件不兼容,服务器结构需要改造</td><td>初始投资较高,运维成本高,液体消耗成本高,PUE收益中等,部署方式同浸没式,服务器结构需要改造</td></tr><tr><td>技术特点</td><td>①服务器与动力系统改造较小,IT设备维护较简单;</td><td>①散热能力强,功率密度高;IT设备无风扇,静音;</td><td>①散热能力强,功率密度高;IT设备无风扇,静音;</td><td>①IT设备静音,节省液体;</td></tr></table> 资料来源:硬科技洞察、华创证券 # (1) 冷板式液冷 冷板式液冷通过液冷板与芯片等发热元件贴合,热量通过热传导传递到液冷板,在液冷板内与冷却液进行强化对流换热吸收热量,冷却液将热量带走,从而实现散热效果。温度升高,高温冷却液通过CDU换热器将热量传递到一次侧(室外侧)冷却液,温度降低,低温冷却液再进入循环泵,室外侧冷却液最终通过冷却塔将热量排至大气环境中。 图表 17: 冷板式液冷原理图 资料来源:中兴通讯《液冷技术白皮书(2022)》、华创证券 # (2) 浸没式液冷 浸没式液冷是以冷却液作为传热介质,将发热器件完全浸没在冷却液中,发热器件与冷却液直接接触并进行热交换的制冷形式。使用过程中 IT 设备完全浸没在二次侧冷却液中,因此二次侧循环冷却液需要采用不导电液体,如矿物油、硅油、氟化液等。按照热交换过程中冷却液是否存在相态变化,可分为单相浸没液冷和两相浸没液冷两类。 图表 18: 单相浸没式液冷原理图 资料来源:中兴通讯《液冷技术白皮书(2022)》、华创证券 图表 19: 两相浸没式液冷原理图 资料来源:中兴通讯《液冷技术白皮书(2022)》、华创证券 # (3) 喷淋式液冷 喷淋式液冷是面向芯片级器件精准喷淋,通过重力或系统压力直接将冷却液喷洒至发热器件或与之连接的导热元件上的液冷形式,属于直接接触式液冷。喷淋式液冷系统主要由冷却塔、CDU、一次侧&二次侧液冷管路、冷却介质和喷淋式液冷机柜组成;其中喷淋式液冷机柜通常包含管路系统、布液系统、喷淋模块、回液系统等。 图表 20: 喷淋式液冷原理图 资料来源:中兴通讯《液冷技术白皮书(2022)》、华创证券 # 2、价格:冷板式液冷单机柜二次侧价值量约为700+美元/kW # 液冷散热环节:冷板式液冷分为一次侧(室外侧)和二次侧(室内侧) 基于冷板式液冷方案的一次侧系统,其功能是为二次侧系统提供满足散热要求的冷却水,而二次侧系统的供液温度及流量应满足液冷元件的散热要求。 图表 21:液冷系统工况设计 <table><tr><td></td><td>一次侧</td><td>二次侧</td></tr><tr><td>供液温度</td><td>综合考量当地气象条件和二次侧供液温度要求,推荐供液温度不超过35℃</td><td>在满足液冷元件散热要求的前提下,从节能角度考虑,建议供液温度控制在40-50℃</td></tr><tr><td>流量</td><td>推荐按5~10℃温差设计</td><td>推荐按5~10℃温差设计</td></tr><tr><td colspan="3">资料来源:中兴通讯《液冷技术白皮书(2022)》、华创证券</td></tr></table> 一次侧系统主要包括冷却塔、干冷器及冷水机组等设备,国内绝大多数液冷系统的一次侧选择自然冷却。常见的自然冷冷源可选择开式/闭式冷却塔、干式冷却器。冷源的选择应根据项目所在地的场地、气象、水电等因素综合考量。 图表 22:冷源选型对比 <table><tr><td></td><td>开式冷却塔</td><td>闭式冷却塔</td><td>干式冷却器</td></tr><tr><td>初投资</td><td>结构简单,成本较低</td><td>成本较高</td><td>成本介于闭式塔与开式塔之间</td></tr><tr><td>占地面积</td><td>占地面积较小</td><td>占地面积介于开式塔与干冷器之间</td><td>占地面积较大</td></tr><tr><td>耗水量</td><td>循环水直接喷淋,运行就会产生蒸发损失,耗水量较大</td><td>环境温度较低时可干工况运行,耗水量介于开式塔与干冷器之间</td><td>可实现全年干工况运行,增加喷淋或湿帘系统会产生少量水量消耗</td></tr><tr><td>耗电量</td><td>耗电量较低</td><td>耗电量介于开式塔与干冷器之间</td><td>耗电量较高</td></tr><tr><td>水质</td><td>循环水与空气直接接触,水质较差,容易结垢、滋生细菌</td><td>闭式循环,水质较好</td><td>闭式循环,水质较好</td></tr><tr><td>适用场景</td><td>适用于室外空气质量较好的地区</td><td>适用于室外空气质量较差且对循环水质要求较高的场合</td><td>适用于干冷、缺水地区,夏季炎热地区需要增加喷淋或湿帘系统</td></tr></table> 资料来源:中兴通讯《液冷技术白皮书(2022)》、华创证券 二次侧主要由CDU、二次侧管路和阀件、液冷板、快插接头和Manifold等组成。CDU(冷量分配单元)是液冷系统中的核心设备,其功能在于为二次侧工质提供冷却和循环动力并对二次侧系统进行集中控制;二次侧管路用于连接CDU和末端的液冷机柜,实现冷却工质的传输和均匀分配。 冷板式液冷的一次侧价值量占 $20\% -30\%$ ,二次侧价值量占 $70\% -80\%$ 。一次侧价值量相对稳定,约 $300+$ 美元/kW。而以英伟达GB200、GB300方案为例,冷板式液冷二次侧价值量约600-800美元/kW,冷板式液冷方案总价值量约1000美元/kW。 不同散热方案每 kW 价值量对比:风冷 900+ 美元,冷板式 1000+ 美元,浸没式 1400+ 美元。风冷价值量为 900+ 美元/kW,浸没式液冷价值量约 1400+ 美元/kW。风冷方案主要由 风机、散热器(Heat Sink)、风道、风墙/盲板以及部分辅助装备,以 $10\mathrm{kW}$ 的机柜为例,数据中心风冷方案单个机柜的价值量普遍在 $900+$ 美元/kW,浸没式液冷价值量约 $1400+$ 美元/kW。 图表 23:数据中心散热方案价值量对比 资料来源:施耐德电气《大型数据中心浸没式液冷与风冷投资成本分析》、零氪《AIDC液冷市场趋势佐证报告》、华创证券测算 英伟达GB200/GB300:冷板式二次侧价值量约600-800美元/kw。 GB200 NVL72: 据测算,冷板式液冷二次侧价值量为 $600+$ 美元/kW。英伟达 GB200 NVL72 的液冷方案采用的是液冷与风冷相结合,同时一块大冷板覆盖 2 个 GPU 和 1 个 CPU,大冷板单价为 700-800 美元,单层需要 2 块,每层使用 8 个小风扇,风扇单价为 25 美元,故单层芯片设备的液冷价值量在 $1700+$ 美元。另外,其还配备交换机冷板、CDU、manifold、快插接头等零部件。GB200 NVL72 采用的是 UQD04 快接头方案,共计 108 对芯片设备接头,每对价值 70 美元。综合而言,GB200 NVL72 冷板式液冷二次侧价值量单机柜在 $78000+$ 美元,约 $600+$ 美元/kW。 图表 24:GB200 NVL72 液冷系统单机柜二次侧价值量测算 <table><tr><td></td><td>数量</td><td>单价(美元)</td><td>价值量(美元)</td></tr><tr><td>Computer tray</td><td>18</td><td>1700</td><td>30600</td></tr><tr><td>Switch tray</td><td>9</td><td>550</td><td>4950</td></tr><tr><td>CDU(L2L)</td><td>1</td><td>30000</td><td>30000</td></tr><tr><td>Manifold</td><td>2</td><td>2000</td><td>4000</td></tr><tr><td>快插接头(QD)</td><td>108(UQD04 方案)+18(交换机接头)</td><td>70</td><td>8820</td></tr><tr><td>合计</td><td colspan="3">78370</td></tr><tr><td>每GPU价值量</td><td colspan="3">1088</td></tr></table> 资料来源:零氪《AIDC液冷市场趋势佐证报告》、Made-in-China网、华创证券测算 GB300 NVL72:据测算,冷板式液冷二次侧价值量为 $800+$ 美元/kW。区别于英伟达GB200 NVL72,GB300 NVL72采用的是全液冷无风扇设计,同时1个小冷板覆盖1个 CPU/GPU,冷板单价为200-400美元,单层需要6块,故单层芯片设备的液冷价值量在 $1800+$ 美元。另外,有所区别的是,GB300 NVL72采用的是NVUQD03快插接头方案,共252对芯片设备接头,每对约84美元。综合而言,GB300 NVL72冷板式液冷二次侧价值量单机柜在 $90000+$ 美元,约 $800+$ 美元/kW。 图表 25:GB300 NVL72 液冷系统单机柜二次侧价值量测算 <table><tr><td></td><td>数量</td><td>单价(美元)</td><td>价值量(美元)</td></tr><tr><td>Computer tray</td><td>18</td><td>1800</td><td>32400</td></tr><tr><td>Switch tray</td><td>9</td><td>550</td><td>4950</td></tr><tr><td>CDU(L2L)</td><td>1</td><td>30000</td><td>30000</td></tr><tr><td>Manifold</td><td>2</td><td>2000</td><td>4000</td></tr><tr><td>快插接头(QD)</td><td>252(NVUQD03 方案)+18(交换机接头)</td><td>84</td><td>22680</td></tr><tr><td>合计</td><td colspan="3">94030</td></tr><tr><td>每GPU价值量</td><td colspan="3">1306</td></tr><tr><td colspan="4">资料来源:零氪《AIDC 液冷市场趋势佐证报告》、汉深流体官网、supermicro、华创证券测算注:compute tray 单价仅考虑液冷板及风扇的价值量</td></tr></table> # (三)路线选择:冷板式渐成主流,浸没式未来有望满足超算需求 # 1、冷板式:技术成熟、综合成本优势,率先大规模商业化落地 短期,冷板式液冷将凭借其技术成熟度和综合成本优势,率先实现大规模商业化落地。根据中商产业研究院预测,全球数据中心液冷方案渗透率有望从2025年的 $26\%$ 提升至2030年的 $55\%$ ,成为数据中心散热主流方案。 图表 26:全球液冷数据中心渗透率预测 资料来源:中商产业研究院、华创证券 相比于浸没式液冷,冷板式液冷关键的优缺点在于: 优点:冷板式技术相对成熟,生态完善,对机柜和服务器改造成本低,初期投资少;运维模式、机房称重与风冷场景也基本一致;对冷却工质的需求量少,相对环保。 缺点:冷板式液冷 PUE 值较高,冷板式 PUE 值为 1.1-1.2,而浸没式液冷为 1.05-1.09;冷板式通常与风冷结合使用,能耗高。 图表 27: 冷板式液冷 vs 浸没式液冷 <table><tr><td></td><td>冷板式液冷</td><td>浸没式液冷</td></tr><tr><td>PUE值</td><td>1.1-1.2</td><td><1.09</td></tr><tr><td>技术优势</td><td>技术相对成熟,对机柜和服务器改造小,初期投资少</td><td>节能、静音</td></tr><tr><td>改造成本</td><td>初始投资中等,部署方式与风冷相同,从传统模式过度平滑</td><td>服务器结构需重构</td></tr><tr><td>运维模式</td><td>运维模式、机房称重与风冷场景也基本一致</td><td>运维模式与风冷场景不一致</td></tr><tr><td>噪音</td><td>风扇转速降低</td><td>无风扇,几乎静音</td></tr><tr><td>可维护性</td><td>便利,可实现在线维护方案</td><td>维护过程较复杂</td></tr><tr><td>冷却工质</td><td>工质需求量少,较环保</td><td>需用氟化液,有环保问题</td></tr><tr><td>产品兼容性</td><td>兼容现有硬件架构</td><td>需优化IT设备关键组件设计和配置单独的专用维护设备</td></tr><tr><td>短路风险</td><td>运维不当可能出现冷却工质腐蚀冷板</td><td>冷却工质腐蚀性小</td></tr><tr><td colspan="3">资料来源:零氪,MIR睿工业,硬科技洞察,浪潮信息《全液冷冷板系统参考设计及性能测试白皮书》,华创证券</td></tr></table> # 2、浸没式:低能耗但部署难度高,满足超算中心精细要求 算力需求:伴随着超算中心芯片功耗提升,未来浸没式液冷将是智算中心高功率密度散热主要方案。智算中心需要建立高度集成化的GPU群,而智算中心GPU芯片的算力在不断增长,英伟达B200芯片TDP功耗达1000W,GB200超级芯片达2700W。未来,即将上量的GB300、Rubin288等GPU集群会带来更高的TDP功耗。而在液冷方案的选择上,长期来看会逐步走向浸没式液冷。 图表 28:英伟达不同芯片架构对应参数表 <table><tr><td colspan="8">不同芯片及服务器架构对应参数表</td></tr><tr><td rowspan="2">芯片架构</td><td>A100</td><td>H100</td><td>H200</td><td>B100</td><td>B200</td><td>GB200</td><td>GB300</td></tr><tr><td>Ampere</td><td colspan="2">Hopper</td><td colspan="4">Blackwell</td></tr><tr><td>功耗</td><td>400W</td><td>700W</td><td>700W</td><td>700W</td><td>1000W</td><td>2700W</td><td>3100W</td></tr><tr><td rowspan="2">服务器架构</td><td>HGX A100</td><td>HGX H100</td><td>HGX H200</td><td>HGX B100</td><td>HGX B200</td><td>NVL36 GB200</td><td>NVL72 GB200</td></tr><tr><td>8 x A100 SXM</td><td>8 x H100 SXM</td><td>8 x H200 SXM</td><td>8 x B100 SXM</td><td>8 x B200 SXM</td><td>36 x B200 18 x Grace CPU</td><td>72 x B200 36 x Grace CPU</td></tr><tr><td>GPU功耗</td><td>3.2kW</td><td>5.6kW</td><td>5.6kW</td><td>5.6kW</td><td>8kW</td><td>48.6kW</td><td>97.2kW</td></tr><tr><td>总功耗</td><td>6.5kW</td><td>10.2kW</td><td>10.2kW</td><td>10.2kW</td><td>14.3kW</td><td>约70kW</td><td>120-140kW</td></tr><tr><td>散热方案</td><td>风冷</td><td>风冷</td><td>风冷</td><td>风冷</td><td>风冷+液冷</td><td>风冷+液冷</td><td>液冷</td></tr></table> 资料来源:Vertiv《智算中心基础设施演进白皮书》、华创证券 能耗需求:碳中和背景下,主要国家和地区对数据中心的电能利用效率PUE等指标提出了更为严格的要求。算力中心电力紧缺已成为初步共识,采用液冷降低PUE有望节约整体数据中心电能消耗。目前,一个标准的风冷数据中心中,温控环节的能耗占比达到 $24\%$ (主要为精密空调消耗)。而算力中心对电力需求正在快速提升,需要降低单位算力能耗,通过液冷替代精密空调有助于降低PUE以实现节约能耗的目的。 图表 29:典型数据中心能耗占比 资料来源:中兴通讯《液冷技术白皮书(2022)》、华创证券 # (四)交付方式:从系统交付走向解耦交付 在交付模式上,液冷技术尚处于产业发展朦胧时期,产业标准尚未明确,市场参与者呈多元化态势,交付模式上包括一体化交付与解耦交付。一体化交付模式下,液冷整机柜由厂商自定标准进行集成设计开发,整机柜由同一服务器厂商一体化交付;解耦交付模式下,液冷机柜与服务器之间遵循用户统一制定的接口设计规范,机柜与服务器解耦,可由不同厂商交付,最终由下游客户自己去完成整体集成。 一体化交付有兼容性问题,而解耦交付有利于竞争。一体化交付模式存在服务器与非原厂设备不适配的兼容性问题,但责任界面清晰。解耦交付模式下,下游客户的选择自由度更高,有利于于促进竞争,推动机柜整体成本的下降,但存在运维管理中责任不清等问题。 综上,基于液冷技术路线尚处于产业发展初期,行业标准、技术规范等仍待完善,我们认为当下两种交付方式并存,未来液冷技术路线的标准化会推动解耦交付模式的发展。 图表 30: 冷板式液冷交付方式对比 资料来源:中国移动、中国电信、中国联通《电信运营商液冷技术白皮书(2023)》 # (五)规模测算:乐观预计2026年全球AI液冷市场规模约185亿美元 我们综合考虑英伟达GPU、ASIC芯片出货量及单机柜液冷价值量,估算得到2025、2026年全球AI服务器液冷市场规模有望达到74.7/184.6亿美元。 1)英伟达GPU出货量预测:我们预计随着英伟达GPU持续升级迭代及GB300 NVL72产能爬坡,英伟达GPU出货架构为Hopper、Blackwell、Rubin三大架构,产品主要为B200/GB200、B300/GB300、H100/H200/H20、VR100等。基于零氪预测数据(2025年5月,下同)及英伟达GTC大会(2025年10月,下同)披露的最新进展,我们预计2025、2026年英伟达GPU出货量约920/1250万颗。 2)英伟达单颗GPU对应液冷价值量预测:随着英伟达GPU持续升级迭代,我们预计2025/2026年单颗GPU的液冷价值量,GB200架构对应1088美元每GPU,GB300架构对应1306美元每GPU,根据功耗估算VR100液冷价值量为2000美元每GPU。 3)英伟达GPU对应液冷渗透率预测:随着GB300NV72全液冷无风扇设计的推出,我们预计2025、2026年,GB200对应液冷渗透率约为 $70\% /100\%$ ;GB300对应液冷渗透率为 $100\% /100\%$ 4)英伟达GPU对应液冷市场规模预测:随着英伟达GPU持续升级迭代及GB200NVL72以及GB300NVL72的应用,液冷渗透率有望持续提升,综合液冷系统成本测算,我们预计2025年/2026年对应液冷市场规模分别为69.4亿美元/172.6亿美元。 5) ASIC及其他GPU对应液冷市场规模测算:据零氪测算,各大厂商ASIC芯片2025/2026年出货量分别为187/357万颗。经推算,我们预计2025年/2026年对应液冷市场规模分别为5.3亿美元/12.0亿美元。 图表 31: 英伟达不同系列 GPU 出货量预测 (万颗) 资料来源:零氪《AIDC液冷市场趋势佐证报告》、英伟达官网、华创证券预测 注:预测数据基于零氪报告(2025年5月)和英伟达GTC大会(2025年10月),英伟达部分基于最新进展上调 图表 33:英伟达服务器产品液冷渗透率预测 资料来源:Vertiv《智算中心基础设施演进白皮书》、英伟达官网、华创证券预测 图表32:英伟达GPU、ASIC芯片出货量预测(万颗) 资料来源:零氪《AIDC液冷市场趋势佐证报告》、英伟达官网、华创证券预测 注:预测数据基于零氪报告(2025年5月)和英伟达GTC大会(2025年10月),英伟达部分基于最新进展上调 图表 34:服务器液冷市场规模预测(亿美元) 资料来源:零氪《AIDC液冷市场趋势佐证报告》、英伟达官网、中商产业研究院、Trend Force、华创证券预测 注:预测数据基于零氪报告(2025年5月)和英伟达GTC大会(2025年10月),英伟达部分基于最新进展上调 # 三、产业链格局分散,英伟达引领产业升级 # (一)汽零入局:立足上游部件生意,暂避中下游激烈竞争 # 1、产业链全景:零部件、解决方案、应用场景 液冷产业链主要涵盖上游的零部件及IT设备、中游解决方案及下游应用场景三个环节。其中产业链上游为冷却塔、冷却液、CDU(冷却液分配单元)、接头、电磁阀、TANK、manifold、冷水机组、干冷器等系统部件;中游为液冷解决方案厂商,通常通过采购/生产上游液冷零部件进行集成进而提供给下游应用厂商,具体可分为第三方液冷解决方案供应商、服务器OEM/ODM厂商、数据中心技术设施建设商;下游应用于数据中心、AI算力、电子终端、互联网、金融、能源交通、工业制造等领域。 图表 35:智算中心液冷产业链全景 资料来源:中国信息通讯研究院《智算中心液冷产业全景研究报告》 # 2、汽零布局:从汽车热管理跨行进入数据中心热管理 汽零公司立足上游核心零部件快速入局。汽零公司多以汽车热管理(三花、银轮等)及汽车管路(凌云、川环、飞龙等)起家并顺产业研发进而入局,产品多为液冷上游零部件泵、阀、管路、快接头、Manifold等,有望凭借多年技术积累及精密制造优势快速打开市场。 图表 36:国内相关汽零公司液冷业务布局(部分) <table><tr><td>公司名</td><td>产品</td><td>客户及进展</td></tr><tr><td>拓普集团</td><td>液冷泵、温压传感器、各类流量控制阀、气液分离器、液冷导流板等</td><td>已经向华为、A客户、NVIDIA、META及各企业客户和各数据中心提供商,对接推广相关的产品</td></tr><tr><td>三花智控</td><td>阀、泵、转换器、控制器等产品由热管理向液冷拓展中</td><td>产品及客户积极拓展中</td></tr><tr><td>比亚迪电子</td><td>数据中心液冷产品</td><td>已通过行业领军企业认证</td></tr><tr><td>银轮股份</td><td>兆瓦级浸没一体式液冷设备、精密空调+冷却塔、服务器液冷/风冷CDU+芯片冷板模组+Manifold、柴油发电机液冷模块等</td><td>部分品类已进入逐步放量阶段,部分品类处在验证阶段</td></tr><tr><td>敏实集团</td><td colspan="2">公司正重点布局和推动AI液冷相关产品开发和落地</td></tr><tr><td>凌云股份</td><td>公司子公司凌云阔丹及亚大集团专注于管路产品,目前已成功开发并获得储能、充电站、数据中心等场景所需液冷产品订单;公司子公司凌云胶管公司提供定制化液冷管路系统,已打入全球供应链</td><td>向国内数字能源高科技领军企业H客户批量供货,为全球知名液冷厂家CoolerMaster、AVC、宝德华南等散热龙头批量供应液冷管路,液冷产品系统还被英维克、申菱环境等企业用于自主可控液冷方案</td></tr><tr><td>中鼎股份</td><td>CDU(冷液分配装置),未来根据实际需要,逐步将浸没式技术运用到超算中心热管理中</td><td>目前公司正在加速与客户对接</td></tr><tr><td>锦富技术</td><td colspan="2">公司控股子公司已向某台湾客户交付小批量液冷板部件,该液冷板部件用于B200服务器的散热模组中</td></tr><tr><td>祥鑫科技</td><td>液冷解决方案(并继续拓展算力服务器的关节部件(液冷模组、快接头、CDU、机柜等)</td><td>目前公司正与算力服务器的国内外头部企业接洽</td></tr><tr><td>川环科技</td><td>服务器管路产品已达V0级标准,并成功取得美国UL认证</td><td>目前已经进入了CoolerMaster、AVC、英维克、中航光电、飞荣达、宝德华南等供应商体系,正按照客户的流程进行开发工作;液冷相关接头产品已完成初样研制,正处于客户推广阶段</td></tr><tr><td>飞龙股份</td><td>电子泵系列产品和温控阀系列产品为主</td><td>目前公司液冷领域主要客户及建立联系的达80家,有超120个项目正在进行中,部分项目已经量产</td></tr><tr><td>腾龙股份</td><td colspan="2">已实现电子水泵产品及橡胶管、尼龙管产品分别用于数据中心和储能电柜领域液冷的小批量量产</td></tr><tr><td>美利信</td><td>铝合金结构件产品</td><td>与全球多家头部通信技术与服务提供商建立了密切的协同开发关系</td></tr><tr><td>溯联股份</td><td>目前公司已完成了UQD产品的主要性能试验验证工作,正着手研发配套的液冷组件和独立的系统化性能解决方案</td><td>已与国内主要服务器制造商以及国际化的领先热管理系统集成商建立了业务联系和技术交流</td></tr><tr><td>立中集团</td><td colspan="2">公司研发的高导热可钎焊压铸铝合金并正在积极拓展储能、算力中心液冷系统领域的应用</td></tr></table> 资料来源:各公司公告、华创证券 # (二)英伟达:引领芯片发展潮流,带动液冷产业链升级 # 1、英伟达技术方案推陈出新,台系液冷产业链公司合作紧密 英伟达AI芯片不断迭代,不仅引领AI行业发展潮流,也深刻影响液冷方案发展。2025GTC大会上,英伟达发布下一代AI芯片,功耗预计过2000W。RubinGPU的热功耗甚至可能从原先预期的1.8kW提高至2.3kW,已经超过了现行冷板的散热负荷,因此对散热提出了极高要求,“微通道水冷板(MLCP)”技术有望成为下一代散热主流趋势,MLCP技术是一种芯片级集成散热技术。其核心创新在于将微米级冷却流道直接嵌入GPU封装盖板或紧贴芯片表面,通过冷却液在微通道内流动直接带走热量,一台采用MLCP技术的服务器机柜价值量大幅提升,传统冷板方案价值约8万元,而MLCP方案 可能将单机柜价值量进一步提升,带动液冷部件空间上行。 Vera Rubin NVL144 性能预计将是 GB300 NVL72 的 3.3 倍。Rubin NVL144 采用下一代 Kyber 机架架构,采用创新的“垂直刀片”设计,未来可扩展至 NVL576 配置,支持高达 576 个 Rubin Ultra GPU,机柜密度可达 GB300 NVL72 的 8 倍,有望大幅降低场地和运维成本。在算力层面,Rubin NVL144 的 AI 计算性能达到 8exaFLOPs,单机架可提供 100TB 的高速内存和 1.7PB/s 的内存带宽,并为处理超长上下文任务引入了专用的 Rubin CPX GPU。据分析,其性能可达 GB300 NVL72 的 3.3 倍,Rubin Ultra NVL576 性能预估将是 GB300 NVL72 的 14 倍。 图表 37: Blackwell & Rubin 对比 <table><tr><td>对比维度</td><td>Blackwell GB300 NVL72</td><td>Vera Rubin NVL144</td><td>Rubin Ultra NVL576</td></tr><tr><td>状态/时间</td><td>最新发布</td><td>预计2026推出</td><td>预计2027年推出</td></tr><tr><td>核心GPU</td><td>Blackwell Ultra (如B300)</td><td>Rubin GPU 和 Vera CPU</td><td>Rubin Ultra GPU</td></tr><tr><td>配置</td><td>72个NVIDIA Blackwell Ultra GPU、36个NVIDIA Grace CPU</td><td>144 GPU</td><td>576 GPU</td></tr><tr><td>关键互联技术</td><td>第五代NVLink(1.8TB/s)</td><td>第六代NVLink (3.6TB/s)</td><td>NVSwitch 7.0 (支持576 GPU)</td></tr><tr><td>单机柜性能基准</td><td>1x (基准)</td><td>约3.3倍于GB300 NVL72</td><td>约14倍于GB300 NVL72</td></tr><tr><td>内存提升</td><td>基准 (GB300搭载288GB HBM3E)</td><td></td><td>8倍于GB300</td></tr><tr><td>散热方案</td><td>Bianca架构:GPU用冷板式液冷,CPU和内存用风冷,电源用风冷Cordelia架构:独立液冷板设计</td><td>100%液冷</td><td>100%液冷(GPU用冷板式,电源用浸没式)</td></tr></table> 资料来源:英伟达官网、华创证券 在2025年10月的英伟达GTC大会上,公司发布了多项重大成果:Blackwell GPU架构已进入全面生产阶段,将提供高达40倍于Hopper的推理性能;宣布了下一代RubinGPU和RubinUltra架构,支持更高内存和功耗的液冷系统;预告了VeraCPU、Feynman处理器,并给出了一年一度的AI基础设施路线图,强调代理式AI、机器人学等领域的突破;此外,还发布了用于大规模AI数据中心的“gigascale”蓝图、共封装光学开关以及Dynamo推理优化技术,这些创新旨在推动AI工厂的构建和全球AI基础设施的扩展。 图表 38:英伟达未来产品路线图 资料来源:英伟达官网 同时,在大会上,多家合作伙伴展示了最新的散热解决方案。其中,Accelsius展示了全新的两相浸没式液冷解决方案,能够解决高功率密度场景的散热需求,有望在2026年Rubin芯片发布后实现初步商业化。英伟达目前已公布了部分散热模组及组件供应商名单,包括英维克、Auras、AVC、Coolermaster、维谛、比亚迪电子、富士康等,其中: 1) 系统级解决方案:维谛; 2) UQD: 英维克、Auras、AVC、比亚迪电子等; 3) CDU:AVC、台达电子、nVent等; 4) 液冷板:Auras、AVC、宝德等; # 2、产业链代表公司:维谛技术、英维克、中科曙光 维谛技术:关键基础设施和连续性解决方案的全球领导者,公司于2024年4月加入英伟达NVIDIA生态伙伴网络(NPN),并成为解决方案顾问合作伙伴。此前维谛已携手开发由GB200 NVL72系统驱动的下一代英伟达NVIDIA加速数据中心最前沿的液冷解决方案,公司的高密电力和制冷解决方案专为支持下一代GPU安全高效地承载AI工作负载而设计,确保最佳性能与高可用性。此外公司的液冷技术系列,如冷却剂分配单元、XDM分体式室内冷水机组和DCD后门背板,能够满足各类应用需求。并且PDU系列已扩展,可以适应机架内更高的功率需求,同时最大限度地减小空间占用并维持高效运作。 图表 39: Vertiv™ CoolLoop Chiller 水冷磁悬浮冷水机组特性与优势 <table><tr><td></td><td>无油技术</td><td>架构与性能</td><td>集成方案</td></tr><tr><td>特性</td><td>无油0摩擦压缩机:启动电流低至2A,整机效率更高,噪声更低至73dB(A),生命周期长达25年以上无油高效换热技术:高效满液式蒸发器设计(可选配降膜),降低逼近温度,提升机组IPLV</td><td>多维流体架构:根据不同冷却需求,布局和空间限制灵活拓展,可实现占地1平方米最小单元适配进场改造多维保障设计:智能低压比防喘振技术、多压缩机并联运行技术以及压缩机电机过热保护等7重保护保障机组运行稳定可靠</td><td>BA群控+AI智控(选配):维谛水冷磁悬浮冷水机组可集成BA控制系统+AI大模型,综合控制提升整体系统能效,进一步降低机房pPUE</td></tr><tr><td>优点</td><td>无油免维护。无油0摩擦压缩机,无油高效换热器等核心部件匹配机组设计周期,降低备件备件更换频率的同时,省去有油系统部件的丝与定期检修,运维成本节省70%以上,更长生命周期</td><td>能效制胜:远超GB18430.1-2024规定的数据中心全年综合能效ACCOP一级能效值,相较于传统离心机节能50%以上,全生命周期优势更显著</td><td>一体化集成冷站方案(可选配):凭借高度集成化设计,维谛一体化磁悬浮集成冷站全面实现节能降耗减碳,显著缩短施工周期30天以上,节省超过1/3的机房面积</td></tr></table> 资料来源:维谛技术官网、华创证券 英维克:业内领先的精密温控节能解决方案和产品提供商,致力于为云计算数据中心、算力设备、通信网络等领域提供设备散热解决方案及精密环境控制解决方案,作为全链条液冷的开创者,公司率先推出高可靠Coolinside全链条液冷解决方案。从冷板、快速接头、Manifold、CDU、机柜,到SoluKing长效液冷工质、管路、冷源等“端到端”的产品覆盖,从服务器制造工厂,到数据中心运行现场的“厂到场”交付场景覆盖,公司的产品直接或通过系统集成商提供给数据中心业主、IDC运营商、大型互联网公司、通信运营商,历年来公司已为字节跳动、腾讯、阿里巴巴、秦淮数据、万国数据、数据港、中国移动、中国电信等用户的大型数据中心提供了大量高效节能的制冷产品及系统,此外公司的UQD产品此前已经被列入英伟达的MGX生态系统合作伙伴。 图表 40: 英维克 Coolinside 全链条液冷解决方案 资料来源:英维克官网、华创证券 中科曙光:公司主要从事高端计算机、存储、安全、数据中心产品的研发及制造,同时大力发展数字基础设施建设、智能计算等业务。公司的超智融合解决方案依托领先浸没液冷与高压直流输电等节能技术可有效降低数据中心能耗。此外公司ParaStor液冷存储系统,将液冷技术与存储技术深度结合,提升存储系统性能,并可便捷、高效地与液冷服务器形成“存算一栈式”液冷方案,在提高运维效率的同时,助力数据中心降低PUE值。 图表 41:中科曙光解决方案 资料来源:公司官网 # 四、投资建议 市场趋势:随着AI大模型的快速迭代与算力需求激增,数据中心功率密度持续攀升,传统风冷散热难以满足高热流密度下的稳定运行要求,液冷技术凭借能效优势和高散热能力,正成为AI数据中心主流散热方案。 市场规模:我们预计全球AI冷板式液冷市场规模有望从2025年的75亿美元跃升至2026年的185亿美元,短期成长爆发力强劲。 产业链机遇:液冷生态涵盖上游零部件(泵、阀、管路、快接头等)、中游系统集成及下游应用,竞争格局尚处分散阶段,跨行业竞争特征明显。尤其值得关注的是,一批汽车零部件企业依托在热管理系统和精密制造领域的深厚积累,正积极切入液冷上游赛道,展现出较强的产品适配能力和成本控制优势。 投资角度:看好AI发展背景下的液冷产业链成长趋势,建议重点把握两类投资机会:1)英伟达产业链:散热模组及组件供应商,关注英维克、维谛技术、比亚迪电子、富士康等;2)新晋跨行汽零企业:推荐银轮股份、凌云股份、敏实集团,建议关注川环科技、飞龙股份等。 # 五、风险提示 数据中心建设进展不及预期、国产液冷方案发展不及预期、地缘政策风险、测算可能因因素考虑不全存在误差等。 # 汽车组团队介绍 # 组长、首席分析师:张程航 美国哥伦比亚大学公共管理硕士。曾任职于天风证券,2019年加入华创证券研究所。 # 高级分析师:夏凉 华威大学商学院商业分析硕士。曾任职于汽车产业私募股权基金,2020年加入华创证券研究所。 # 分析师:李昊岚 伦敦大学学院金融硕士。2022年加入华创证券研究所。 # 分析师:林栖宇 上海财经大学金融硕士。2023年加入华创证券研究所。 # 助理研究员:于公铭 英国拉夫堡大学金融硕士。2024年加入华创证券研究所。 # 助理研究员:张睿希 上海交通大学金融硕士。2024年加入华创证券研究所。 华创证券机构销售通讯录 <table><tr><td>地区</td><td>姓名</td><td>职务</td><td>办公电话</td><td>企业邮箱</td></tr><tr><td rowspan="10">北京机构销售部</td><td>张昱洁</td><td>副总经理、北京机构销售总监</td><td>010-63214682</td><td>zhangyujie@hcyjs.com</td></tr><tr><td>张菲菲</td><td>北京机构副总监</td><td>010-63214682</td><td>zhangfeifei@hcyjs.com</td></tr><tr><td>张婷</td><td>北京机构销售副总监</td><td></td><td>zhangting3@hcyjs.com</td></tr><tr><td>刘懿</td><td>副总监</td><td>010-63214682</td><td>liuyi@hcyjs.com</td></tr><tr><td>侯春钰</td><td>资深销售经理</td><td>010-63214682</td><td>houchunyu@hcyjs.com</td></tr><tr><td>顾翎蓝</td><td>资深销售经理</td><td>010-63214682</td><td>gulinglan@hcyjs.com</td></tr><tr><td>刘颖</td><td>资深销售经理</td><td>010-66500821</td><td>liuying5@hcyjs.com</td></tr><tr><td>阎星宇</td><td>销售经理</td><td></td><td>yanxingyu@hcyjs.com</td></tr><tr><td>车一哲</td><td>销售经理</td><td></td><td>cheyizhe@hcyjs.com</td></tr><tr><td>吴昱颖</td><td>销售经理</td><td></td><td>wuyuying@hcyjs.com</td></tr><tr><td rowspan="9">深圳机构销售部</td><td>张娟</td><td>副总经理、深圳机构销售总监</td><td>0755-82828570</td><td>zhangjuan@hcyjs.com</td></tr><tr><td>张嘉慧</td><td>高级销售经理</td><td>0755-82756804</td><td>zhangjiahui1@hcyjs.com</td></tr><tr><td>王春丽</td><td>高级销售经理</td><td>0755-82871425</td><td>wangchunli@hcyjs.com</td></tr><tr><td>王越</td><td>高级销售经理</td><td></td><td>wangyue5@hcyjs.com</td></tr><tr><td>汪丽燕</td><td>销售经理</td><td>0755-83715428</td><td>wangliyan@hcyjs.com</td></tr><tr><td>温雅迪</td><td>销售经理</td><td></td><td>wenyadi@hcyjs.com</td></tr><tr><td>胡丁琳</td><td>销售助理</td><td></td><td>hudinglin@hcyjs.com</td></tr><tr><td>付雅琦</td><td>销售助理</td><td></td><td>fuyaqi@hcyjs.com</td></tr><tr><td>许馨匀</td><td>销售助理</td><td></td><td>xuxinyun@hcyjs.com</td></tr><tr><td rowspan="13">上海机构销售部</td><td>许彩霞</td><td>总经理助理、上海机构销售总监</td><td>021-20572536</td><td>xucaixia@hcyjs.com</td></tr><tr><td>祁继春</td><td>上海机构销售副总监</td><td></td><td>qijichun@hcyjs.com</td></tr><tr><td>黄畅</td><td>上海机构销售副总监</td><td>021-20572257-2552</td><td>huangchang@hcyjs.com</td></tr><tr><td>吴俊</td><td>资深销售经理</td><td>021-20572506</td><td>wujun1@hcyjs.com</td></tr><tr><td>张佳妮</td><td>资深销售经理</td><td>021-20572585</td><td>zhangjiani@hcyjs.com</td></tr><tr><td>郭静怡</td><td>高级销售经理</td><td></td><td>guojingyi@hcyjs.com</td></tr><tr><td>蒋瑜</td><td>高级销售经理</td><td>021-20572509</td><td>jiangyu@hcyjs.com</td></tr><tr><td>吴菲阳</td><td>高级销售经理</td><td></td><td>wufeiyang@hcyjs.com</td></tr><tr><td>朱涨雨</td><td>高级销售经理</td><td>021-20572573</td><td>zhuzhangyu@hcyjs.com</td></tr><tr><td>李凯月</td><td>高级销售经理</td><td></td><td>likaiyue@hcyjs.com</td></tr><tr><td>张豫蜀</td><td>销售经理</td><td>15301633144</td><td>zhangyushu@hcyjs.com</td></tr><tr><td>张玉恒</td><td>销售经理</td><td></td><td>zhangyuheng@hcyjs.com</td></tr><tr><td>章依若</td><td>销售经理</td><td></td><td>zhangyiruo@hcyjs.com</td></tr><tr><td rowspan="2">广州机构销售部</td><td>段佳音</td><td>广州机构销售总监</td><td>0755-82756805</td><td>duanjiayin@hcyjs.com</td></tr><tr><td>王世韬</td><td>销售经理</td><td></td><td>wangshitao1@hcyjs.com</td></tr><tr><td rowspan="6">私募销售组</td><td>潘亚琪</td><td>机构服务部总经理助理</td><td>021-20572559</td><td>panyaqi@hcyjs.com</td></tr><tr><td>汪子阳</td><td>副总监</td><td>021-20572559</td><td>wangziyang@hcyjs.com</td></tr><tr><td>江赛专</td><td>副总监</td><td>0755-82756805</td><td>jiangsaizhuan@hcyjs.com</td></tr><tr><td>汪戈</td><td>高级销售经理</td><td>021-20572559</td><td>wangge@hcyjs.com</td></tr><tr><td>宋丹玮</td><td>销售经理</td><td>021-25072549</td><td>songdanyu@hcyjs.com</td></tr><tr><td>赵毅</td><td>销售经理</td><td></td><td>zhaoyi@hcyjs.com</td></tr></table> # 华创行业公司投资评级体系 # 基准指数说明: A股市场基准为沪深300指数,香港市场基准为恒生指数,美国市场基准为标普500/纳斯达克指数。 # 公司投资评级说明: 强推:预期未来6个月内超越基准指数 $20\%$ 以上; 推荐:预期未来6个月内超越基准指数 $10\% -20\%$ 中性:预期未来6个月内相对基准指数变动幅度在 $-10\% - 10\%$ 之间; 回避:预期未来6个月内相对基准指数跌幅在 $10\% -20\%$ 之间。 # 行业投资评级说明: 推荐:预期未来3-6个月内该行业指数涨幅超过基准指数 $5\%$ 以上; 中性:预期未来3-6个月内该行业指数变动幅度相对基准指数 $-5\% - 5\%$ 回避:预期未来3-6个月内该行业指数跌幅超过基准指数 $5\%$ 以上。 # 分析师声明 每位负责撰写本研究报告全部或部分内容的分析师在此作以下声明: 分析师在本报告中对所提及的证券或发行人发表的任何建议和观点均准确地反映了其个人对该证券或发行人的看法和判断;分析师对任何其他券商发布的所有可能存在雷同的研究报告不负有任何直接或者间接的可能责任。 # 免责声明 本报告仅供华创证券有限责任公司(以下简称“本公司”)的客户使用。本公司不会因接收人收到本报告而视其为客户。 本报告所载资料的来源被认为是可靠的,但本公司不保证其准确性或完整性。本报告所载的资料、意见及推测仅反映本公司于发布本报告当日的判断。在不同时期,本公司可发出与本报告所载资料、意见及推测不一致的报告。本公司在知晓范围内履行披露义务。 报告中的内容和意见仅供参考,并不构成本公司对具体证券买卖的出价或询价。本报告所载信息不构成对所涉及证券的个人投资建议,也未考虑到个别客户特殊的投资目标、财务状况或需求。客户应考虑本报告中的任何意见或建议是否符合其特定状况,自主作出投资决策并自行承担投资风险,任何形式的分享证券投资收益或者分担证券投资损失的书面或口头承诺均为无效。本报告中提及的投资价格和价值以及这些投资带来的预期收入可能会波动。 本报告版权仅为本公司所有,本公司对本报告保留一切权利。未经本公司事先书面许可,任何机构和个人不得以任何形式翻版、复制、发表、转发或引用本报告的任何部分。如征得本公司许可进行引用、刊发的,需在允许的范围内使用,并注明出处为“华创证券研究”,且不得对本报告进行任何有悖原意的引用、删节和修改。 证券市场是一个风险无时不在的市场,请您务必对盈亏风险有清醒的认识,认真考虑是否进行证券交易。市场有风险,投资需谨慎。 华创证券研究所 <table><tr><td>北京总部</td><td>广深分部</td><td>上海分部</td></tr><tr><td>地址:北京市西城区锦什坊街26号恒奥中心C座3A</td><td>地址:深圳市福田区香梅路1061号中投国际商务中心A座19楼</td><td>地址:上海市浦东新区花园石桥路33号花旗大厦12层</td></tr><tr><td>邮编:100033</td><td>邮编:518034</td><td>邮编:200120</td></tr><tr><td>传真:010-66500801</td><td>传真:0755-82027731</td><td>传真:021-20572500</td></tr><tr><td>会议室:010-66500900</td><td>会议室:0755-82828562</td><td>会议室:021-20572522</td></tr></table>