> **来源:[研报客](https://pc.yanbaoke.cn)** 电子 2025年12月24日 # 算力芯片行业深度研究报告 # 算力革命叠浪起,国产GPU奋楫笃行 GPU并行计算能力适用于AI训推需求,大模型发展催化GPU需求。GPU不仅仅负责图形处理,也能执行通用计算任务。其核心由大量简单的计算单元构成,这些单元被组织成强大的计算阵列,能够同时对海量数据执行相同的简单操作,因此相比CPU更擅长处理并行计算任务。当前主流的AI计算加速芯片主要有四种技术架构,相较于ASIC和FPGA,GPU在通用计算性能和开发友好性上更具优势,也比仍处探索阶段的NPU更为成熟,因而成为大模型训练和推理的主力。近年来,人工智能取得突破性进展,多模态大模型不断涌现。大语言模型的进化遵循ScalingLaw法则,其能力提升高度依赖海量算力供给。未来,随着AI大模型向多模态、强推理、数据合成等方向演进,算力将继续作为核心驱动力,推动模型能力不断突破,加速AI应用的广泛落地。 □海外巨头持续加码AI投入,英伟达占据全球主导地位。大模型在应用端的表现持续取得显著进步,正逐步深入渗透日常生活和工作场景,活跃用户数量不断攀升,token调用量保持高速增长。据谷歌业绩说明会,2025年其月度Tokens调用量从5月的480万亿大幅上升至7月的980万亿,并于10月爆发式增长至1300万亿,其提升节奏与谷歌Gemini2.5、NonaBanana等产品的更新步调保持一致。从谷歌AI相关业务表现来看,大模型用户正在向付费用户转化,有望实现AI投入的商业闭环。因此,北美科技巨头纷纷加码AI相关投入。此外,自2025年以来,包括英伟达、微软、OpenAI、Oracle在内的北美AI领域巨头已陆续签订投资与战略合作协议,进一步坚定对AI的投资信心。在数据中心GPU市场,英伟达一家独大且保持高速增长。其GPU产品在AI智算性能上持续革新,GB200的训练性能达H100的4倍,推理性能为H100的30倍,并进一步推出专为扩展推理与AI推理任务设计的GB300。此外,CUDA编程工具大幅降低了开发门槛,进一步巩固了英伟达在AI智算领域的竞争壁垒。 □ 美国扩大高端GPU出口限制,国产奋起力争自主可控。2023-2025年,美国多次修订出口规则扩大管制范围。由于GPU是国内人工智能发展的基础,相关政策持续加码支持国产算力行业发展。当前,寒武纪、海光信息、摩尔线程、沐曦股份等国内厂商推出多款AI智算芯片产品,并逐步追赶国际领先标准。从各公司创始团队及核心成员来源来看,寒武纪核心创始成员均来自中科院计算所,海光信息核心高管大部分来自中科曙光,摩尔线程创始成员来自英伟达,沐曦股份创始成员多数来自超威半导体,决定了其技术底蕴及技术基础。从产品路线及收入规模来看,海光信息CPU产品贡献主要营收,信创CPU产品带动整体收入实现较快起量;寒武纪深耕AI智能芯片,收入放量强依赖于互联网客户验证及部署进程,因此收入在25年实现爆发式成长。摩尔线程和沐曦股份均提供通用GPU产品,但由于摩尔线程和沐曦成立时间较短,目前仍处于商业化落地前期,收入规模相对较小。盈利能力方面,由于GPU行业在爬坡早期毛利规模无法覆盖高额研发支出,因此早期通常处于亏损状态。海光信息2021年实现全年转盈,寒武纪于2024Q4实现单季度转盈,摩尔线程和沐曦目前仍未实现盈利,据招股说明书,摩尔线程预计最早于2027年实现合并报表盈利,沐曦股份预计最早2026年实现盈利。 □行业投资评级与投资策略:目前AI投入产出已实现闭环,有望进一步致使海外大厂加码AI相关投资。近年美国多次修订出口规则扩大管制范围,GPU是国内人工智能发展的基础,国产算力芯片自主可控迫在眉睫。当前,国内多家GPU厂商陆续推出AI智算芯片产品,并逐步追赶国际领先标准。建议关注:(1)算力芯片设计:寒武纪、海光信息、摩尔线程、沐曦股份等(2)算力芯片代工:中芯国际、华虹公司/华虹半导体等。 □ 风险提示:下游需求不及预期、国产替代进展不及预期、代工供应风险 推荐(维持) # 华创证券研究所 # 证券分析师:岳阳 邮箱:yueyang@hcyjs.com 执业编号:S0360521120002 # 证券分析师:吴鑫 邮箱:wuxin@hcyjs.com 执业编号:S0360523060001 # 联系人:卢依雯 邮箱:luyiwen@hcyjs.com <table><tr><td>行业基本数据</td><td></td><td></td></tr><tr><td>股票家数(只)</td><td>493</td><td>0.06</td></tr><tr><td>总市值(亿元)</td><td>137,017.88</td><td>11.38</td></tr><tr><td>流通市值(亿元)</td><td>107,123.63</td><td>11.07</td></tr></table> 相对指数表现 <table><tr><td>%</td><td>1M</td><td>6M</td><td>12M</td></tr><tr><td>绝对表现</td><td>10.1%</td><td>43.9%</td><td>40.1%</td></tr><tr><td>相对表现</td><td>6.3%</td><td>24.1%</td><td>22.6%</td></tr></table> # 相关研究报告 《电子行业深度研究报告:3C、消费、高端制造等多轮驱动,3D打印发展空间广阔》 2025-12-15 《电子行业2026年度投资策略:人工智能引领科技革命,算力需求爆发催化产业升级》 2025-12-02 《半导体存储行业深度研究报告:企业级需求高增,驱动新一轮存储超级周期》 2025-11-05 # 投资主题 # 报告亮点 报告提出了大模型发展基于“Scaling Law”法则,多模态、强推理演进的背后是算力规模的刚性扩张。通过谷歌Tokens调用量的高频数据,展示了AI应用落地与算力消耗已形成可量化、可闭环的商业链路,为“算力即生产资料”提供了依据。 其次,报告精准刻画了目前GPU行业的市场格局。以微软、Oracle为代表的云与算力巨头持续与英伟达签订大规模采购与战略合作,这不仅是对其GPU产品路线的直接背书,更反映出在模型持续迭代、算力即资源的竞争环境下,主流技术路径正加速向其聚合,从而强化了GPU在AI基础设施中的核心地位。 最后对国产替代路径进行分析。面对美国出口管制,报告系统梳理了寒武纪、海光信息、摩尔线程、沐曦股份等厂商的布局和进展,并从“技术渊源-产品路线-商业化节奏-盈利爬坡”四个维度进行横向对比。例如指出海光借力信创CPU实现规模盈利,寒武纪依赖大客户验证在特定时点爆发,而摩尔线程与沐曦仍处商业落地前期。 # 投资逻辑 大模型的持续演进与AI应用的加速落地,正遵循“Scaling Law”对算力产生确定且不断增长的刚性需求,这使得以GPU为核心的AI硬件成为支撑产业发展的基础设施,具备长期投资价值。在这一全球性的产业浪潮中,英伟达凭借其顶尖的GPU硬件性能与深厚稳固的CUDA软件生态,构建了难以撼动的市场壁垒,与主要云厂商的战略合作进一步巩固了其“卖铲人”的霸主地位。与此同时,美国持续升级的高端GPU出口管制,从外部加速了国产算力自主可控的紧迫性,为国内GPU芯片厂商创造了明确且广阔的市场窗口。以寒武纪、海光信息、摩尔线程、沐曦股份为代表的国内企业,正依托差异化的技术路径与快速迭代的产品,逐步切入从训练到推理的各类算力场景。 建议关注:(1)算力芯片设计:寒武纪、海光信息、摩尔线程、沐曦股份等(2)算力芯片代工:中芯国际、华虹公司/华虹半导体等。 # 目录 # 一、GPU并行计算能力适用于AI训推需求,大模型发展催化GPU需求.6 (一)GPU 擅长并行计算,适用于 AI 计算加速 (二)GPU产业链价值集中在中游,AI芯片需求拉动GPU市场规模增长……7 (三)Scaling Law依旧成立,大模型的发展需要GPU提供海量算力 # 二、海外巨头持续加码AI投入,英伟达占据全球主导地位 11 (一)AI投入产出实现闭环,海外巨头坚定AI投资信心 11 (二)英伟达占据全球主导地位,硬件与CUDA生态共筑深厚壁垒 16 # 三、美国扩大高端GPU出口限制,国产奋起力争自主可控. 19 (一)美国扩大出口管制范围,国产GPU自主可控迫在眉睫 19 (二)国内GPU厂商加速追赶,国产替代星辰大海 19 (三)GPU供应商主攻路线各有差异,沐曦/摩尔线程指引有望于26/27年陆续转盈 # 四、相关标的 28 1、寒武纪 28 2、海光信息 28 3、 摩尔线程 29 4、沐曦股份 29 5、中芯国际 30 6、华虹公司/华虹半导体 30 # 五、风险提示 32 1、下游需求不及预期 32 2、国产替代进展不及预期 32 3、代工供应风险 32 # 图表目录 图表1GPU有更多核心去进行数据处理 图表2GPU加速效果远超CPU 6 图表3GPU占服务器成本百分比 $(\%)$ 图表 4 主要 AI 计算加速芯片种类对比表 图表5GPU产业链 8 图表6 2020-2029年全球GPU市场规模(亿人民币) 图表72020-2029年中国GPU市场规模(亿人民币) 8 图表 8 2020-2029 年中国 AI 智算 GPU 市场规模 (亿人民币) 图表 9 多项基准测试中 AI 的技术表现与人类表现对比 ..... 10 图表 10 Scaling law 法则依然有效 ..... 10 图表 11 训练和推理算力需求持续提升 ..... 10 图表 12 Gemini3 与其他 AI 产品能力对比 图表 13 OpenRouter 平台模型 token 调用量 ..... 12 图表 14 谷歌 Token 调用量增长示意图 (万亿) ..... 13 图表 15 谷歌第三季度主要部门业绩指标 (亿美元) ..... 13 图表 16 北美科技巨头资本开支快速上行 (亿美元) ..... 14 图表 17 海外大厂关于 capex 指引及描述 图表 18 2025 年北美 AI 头部企业投资与战略合作关系一览 图表 19 GPU 核心参数. 16 图表 20 英伟达总营收 (亿美元) ..... 17 图表 21 英伟达数据中心营收 (亿美元) ..... 17 图表 22 英伟达硬件产品参数对比 ..... 17 图表 23 CUDA 构架示意图 ..... 18 图表 24 CUDA 的组成部分 ..... 18 图表 25 华为昇腾系列产品 ..... 20 图表 26 寒武纪 MLU370 ..... 21 图表 27 寒武纪智能处理器架构示意图 ..... 21 图表 28 海光信息产品示意图 ..... 22 图表 29 海光软件栈示意图 ..... 22 图表30 摩尔线程主要产品分类 22 图表31 摩尔线程MTTS4000. 23 图表32MUSA架构示意图 23 图表 33 沐曦股份产品分类 ..... 23 图表34沐曦股份曦云C500 24 图表 35 MXMACA 模型软件栈框架结构 ..... 24 图表 36 各公司创始团队/核心团队来源梳理 ..... 24 图表 37 国产 GPU 上市公司收入情况分析 (亿元) ..... 26 图表 38 GPU 上市公司毛利率情况 ..... 27 图表 39 寒武纪及海光信息净利率情况 ..... 27 # 一、GPU并行计算能力适用于AI训推需求,大模型发展催化GPU需求 # (一)GPU擅长并行计算,适用于AI计算加速 GPU不仅仅负责图形处理,也能负责通用计算。GPU,图形处理器(Graphics Processing Unit),又称显示核心、视觉处理器、显示芯片,是一种在个人电脑、游戏设备、移动终端中负责图像和图形运算的处理器芯片。因其具有出色的数学计算能力,一些学者开始将其用于粒子模拟、电路仿真、计算生物学等诸多目的。后来,这些被用于通用计算目的的GPU被称为GPGPU(General Purpose GPU)。2007年英伟达正式推出基于C语言、能打通主机端和设备端的CUDA架构之后,所有的GPU都能够转化为GPGPU,为设备进行各种复杂计算提供算力支撑。 GPU 的高速计算能力来源于大规模并行处理架构。GPU 由大量简单核心构成,这些核心并非独立工作,而是被组织成强大的计算阵列,能够同时对海量数据执行相同的简单操作,从而实现减少计算机运行多个程序所需的时间。正是这种独特的并行架构,让 GPU 成为了驱动现代及未来尖端科技发展的核心引擎。以机器学习 (ML) 和人工智能 (AI) 领域为例,模型训练均涉及海量矩阵与张量运算。这些正是 GPU 能够并行处理的理想任务,训练时间因此从数月缩短至数天。 图表 1 GPU 有更多核心去进行数据处理 资料来源:英伟达开发者网站 在服务器成本中,GPU占据核心部分。从成本占比看,以英伟达DGXH100为例,8GPU+4NVSwitch基板在服务器总成本中占比达 $72.62\%$ 。在数据呈指数增长、CPU迭代放缓的当下,GPU加速计算优势凸显,是现代高性能计算服务器的核心零部件。 图表2GPU加速效果远超CPU 资料来源:英伟达COMPUTEX发布会、转引自bilibili 图表3 GPU占服务器成本百分比 $(\%)$ 资料来源:半导体行业观察,华创证券 当前共有四种AI计算加速芯片技术架构,GPU为目前大模型训练及推理主力。在技术构架角度,AI计算加速芯片可分为GPU、FPGA(Field Programmable Gate Array,可编程逻辑门阵列)、ASIC(Application Specific Integrated Circuit,专用集成电路)和NPU(Neural Processing Unit,神经网络处理器)。在当前阶段,相较于ASIC和FPGA,GPU在通用计算性能、开发友好性上更具优势,也比处于探索阶段的NPU更为成熟。因此,GPU成为大模型训练和推理领域的主力。未来随着经济社会进步和AI技术的深入发展,更多专业化的AI计算加速芯片也会进入市场。 图表 4 主要 AI 计算加速芯片种类对比表 <table><tr><td></td><td>GPU</td><td>FPGA</td><td>ASIC</td></tr><tr><td>定制化程度</td><td>通用型</td><td>半定制化</td><td>定制化</td></tr><tr><td>编程语言/架构</td><td>CUDA、OpenCL等</td><td>Verilog/VHDL等硬件描述语言、OpenCL、HLS</td><td>固定电路无需编程</td></tr><tr><td>延迟</td><td>1ms</td><td>1us</td><td>1us</td></tr><tr><td>主要优点</td><td>峰值计算能力强、通用性强、产品和生态成熟</td><td>平均性能较高、功耗较低、灵活性强</td><td>专业性强、功耗很低、体积小、量产成本低</td></tr><tr><td>主要缺点</td><td>成本高、不可编辑、功耗高</td><td>量产成本高、峰值计算能力较低、编程门槛高</td><td>前期投入成本高、不可编辑、研发时间长、技术风险大</td></tr><tr><td rowspan="2">人工智能的应用范围</td><td>模型训练</td><td rowspan="2">模型推理</td><td>模型训练</td></tr><tr><td>模型推理</td><td>模型推理</td></tr></table> 资料来源:摩尔线程招股书转引自弗若斯特沙利文、甲子光年《中国AI算力行业发展报告》,华创证券 # (二)GPU产业链价值集中在中游,AI芯片需求拉动GPU市场规模增长 GPU产业链的上游包括设计芯片所需的EDA软件、IP模块等,以及制造所需的材料和设备。EDA软件和IP模块等产品为芯片设计提供工具支持,部分设计厂商如英伟达具备自主开发能力,进一步提升了其在产业链中的地位。在高端GPU的生产原料中,最关键的是高纯度硅晶圆,此外还需要光刻胶、蚀刻液、铜线等多种材料。在GPU制造设备中,光刻机和检测设备最为重要,仅有个别厂商能够生产高水平光刻机。以极紫外(EUV)光刻机为例,荷兰的ASML近乎实现了垄断。后续GPU制造的产能和良率依赖高水平制造设备的供给。 GPU产业链的中游是附加值最高的环节,包括设计和制造两大方面。GPU设计呈现出“一超多强”的多元化态势。行业领导者英伟达以CUDA生态构筑了极高壁垒,TechInsights数据显示2023年全球数据中心GPU总出货量达到385万颗,英伟达以 $98\%$ 的市场份额稳居第一,与2022年的市场份额相近,几乎垄断了整个市场。此外,AMD与英特尔的GPU产品也在PC市场占有重要地位。GPU制造指从晶圆制造到芯片封装、测试的过程。设计商设计的高端GPU芯片需要专业晶圆厂来代工(即采取Fabless模式,与自研自产自售的IDM模式相对)。代工厂中,台积电与三星Foundry在高性能GPU制造领域占据技术优势。在晶圆流片完成后,芯片进入封装与测试阶段。日月光(ASE)等全球领先封测企业运用球栅阵列封装、系统级封装等多种先进封装技术,将GPU裸片集成至显卡或服务器模块中,并为下游系统集成提供接口支持。 在GPU产业链下游,系统制造商将产品发往诸多终端应用。下游中,分销商负责销售GPU,系统制造商负责将GPU集成到终端产品中并交付给品牌商。最终的应用下游包括个人消费、云计算与数据中心、汽车与工业控制以及科研等领域。在个人消费市场,GPU是游戏主机与PC的标配,华硕、技嘉等厂商基于NVIDIA与AMD芯片制造显卡。随着AI技术发展,谷歌、亚马逊等云厂商大规模部署GPU集群以支持大模型训练与推理。在智能汽车与工业领域,GPU应用逐步拓展,伴随自动驾驶与物联网发展潜力显著。科研与专业计算领域,高性能计算、工程仿真与影视渲染等场景同样高度依赖GPU。 图表5 GPU产业链 资料来源:摩尔线程招股书转引自弗若斯特沙利文,华创证券 2020年至2029年,世界及中国的GPU市场规模持续大幅增长。过去五年,全球AI算力需求激增使GPU市场爆发式增长,据弗若斯特沙利文测算,2024年全球规模达10,515.37亿元,英伟达等企业凭借生态与技术优势占据主导。同期,中国GPU产业也快速成长,规模从2020年的384.77亿元增至2024年的1,638.17亿元,其中AI智算GPU增速尤为显著,从142.86亿元增至996.72亿元,年均复合增长率达 $62.5\%$ 。展望未来,中国在全球AI市场影响力将随着技术突破不断提升。预计到2029年,全球GPU市场规模将达36,119.74亿元,中国占比由2024年的 $15.6\%$ 提升至 $37.8\%$ ,规模达13,635.78亿元。AI智算GPU仍将是增长核心,预计2029年达10,333.40亿元,期间年均复合增长率 $56.7\%$ ;桌面级产品亦稳步发展,预计从2024年的641.45亿元增至2029年的3,302.38亿元。 图表62020-2029年全球GPU市场规模(亿人民币) 资料来源:摩尔线程招股书转引自弗若斯特沙利文,华创证券 图表72020-2029年中国GPU市场规模(亿人民币) 资料来源:摩尔线程招股书转引自弗若斯特沙利文,华创证券 中国AI下游应用市场扩张带动的AI计算加速芯片需求扩张中,GPU仍为主导。根据 弗若斯特沙利文预测,中国AI计算加速芯片市场规模将从2024年的1,425.37亿元增至2029年的13,367.92亿元,其中,2025年至2029年期间年均复合增长率为 $53.7\%$ 。从AI计算加速芯片的细分市场上看,GPU的市场增长速度最快,其市场份额预计将从2024年的 $69.9\%$ 进一步提升至2029年的 $77.3\%$ ,市场规模达到10,333.40亿元。在这些用于AI智算(计算口径包括数据中心端、边缘计算端及其他云计算端)的GPU的市场中,数据中心GPU是增长主力,其规模从2020年的82亿元猛增至2024年的687.22亿元,年均增速高达 $70.1\%$ 。预计未来它仍将保持 $55.7\%$ 的高增长,到2029年达6,639.16亿元。与此同时,包含边缘与云计算在内的其他AI智算产品也将快速扩张,预计以 $58.8\%$ 的增速在2029年达到3,694.24亿元。 图表 8 2020-2029 年中国 AI 智算 GPU 市场规模 (亿人民币) 资料来源:摩尔线程招股书转引自弗若斯特沙利文,华创证券 # (三)Scaling Law依旧成立,大模型的发展需要GPU提供海量算力 人工智能取得突破性进展,多模态大模型涌现。十年前,世界上最好的人工智能系统也无法以人类的水平对图像中的物体进行分类。如今,人工智能已在多项基准测试中实现了超越人类能力的性能水平。据斯坦福大学在《Artificial Intelligence Index Report 2024》统计,人工智能分别在2015、2017、2020、2021年在图像分类、基本阅读理解、视觉推理和自然语言推理任务中超越人类表现。2023年,人工智能聊天机器人ChatGPT、AI编程工具GitHub CoPilot和图像生成系统Stable Diffusion等生成式人工智能应用和工具产品涌现,为文本创建、图像生成、代码生成以及研发流程等工作带来全新的智能体验。2025年8月,ChatGPT-5在数学、实际程序设计、多模态理解和健康领域的基准测试中全面刷新最高记录,并在GPQA中取得 $88.4\%$ 的高分,创下SOTA新纪录。 图表 9 多项基准测试中 AI 的技术表现与人类表现对比 资料来源:Stanford University《Artificial Intelligence Index Report 2024》 大语言模型进化遵循 Scaling law 法则,能力提升依赖于海量算力供给。大语言模型的性能遵循 Scaling Law 法则。即在固定的模型架构下,模型的最终性能主要与计算量、模型参数量和训练数据量相关。当保持其中两个因素不变时,提升第三个因素,模型的测试损失会以可预测的幂律形式下降。据 OpenAI 等机构研究,训练阶段的 Scaling Law 已得到充分验证;同时,模型在各类下游推理任务上表现出的能力,也展现出类似的缩放规律。未来,随着 AI 大模型向多模态、强推理、数据合成等方向演进,算力将继续作为核心驱动力,推动模型能力不断突破,并加速 AI 应用的广泛落地。 图表 10 Scaling law 法则依然有效 资料来源:OpenAI官网 图表 11 训练和推理算力需求持续提升 资料来源:英伟达官网 # 二、海外巨头持续加码AI投入,英伟达占据全球主导地位 # (一)AI投入产出实现闭环,海外巨头坚定AI投资信心 大模型在应用端的表现仍然在显著进步,为其市场发展奠定基础。2025年11月,谷歌发布Gemini3和NanoBanana2,较其他同类产品具有明显优势。与Gemini2.5Pro、Claude Sonnet4.5、GPT-5.1相比,Gemini3在学术推理、视觉推理谜题、具有挑战性的数学竞赛题、多模态理解与推理、屏幕理解等方面的能力出现了突破性的进步。NanoBanana2在推理能力、编辑中保留文本、空间理解、编辑一致性等方面也有了明显的提升。大模型应用能力的开拓引领新的终端需求,为厂商的盈利能力提升提供保障。 图表 12 Gemini3 与其他 AI 产品能力对比 <table><tr><td>测试项目</td><td>Gemini 3 Pro</td><td>Gemini 2.5 Pro</td><td>Claude Sonnet 4.5</td><td>GPT-5.1</td></tr><tr><td>学术推理</td><td>37.50%</td><td>21.60%</td><td>13.70%</td><td>26.50%</td></tr><tr><td>视觉推理谜题</td><td>31.10%</td><td>4.90%</td><td>13.60%</td><td>17.60%</td></tr><tr><td>科学知识</td><td>91.90%</td><td>86.40%</td><td>83.40%</td><td>88.10%</td></tr><tr><td>数学</td><td>95.00%</td><td>88.00%</td><td>87.00%</td><td>94.00%</td></tr><tr><td>具有挑战性的数学竞赛题</td><td>23.40%</td><td>0.50%</td><td>1.60%</td><td>1.00%</td></tr><tr><td>多模态理解与推理</td><td>81.00%</td><td>68.00%</td><td>68.00%</td><td>76.00%</td></tr><tr><td>屏幕理解</td><td>72.70%</td><td>11.40%</td><td>36.20%</td><td>3.50%</td></tr><tr><td>从复杂图表中进行信息综合</td><td>81.40%</td><td>69.60%</td><td>68.50%</td><td>69.50%</td></tr><tr><td>OCR(数值越低越好)</td><td>0.115</td><td>0.145</td><td>0.145</td><td>0.147</td></tr><tr><td>从视频中获取知识</td><td>87.60%</td><td>83.60%</td><td>77.80%</td><td>80.40%</td></tr><tr><td>竞争性编程题</td><td>2,439</td><td>1,775</td><td>1,418</td><td>2,243</td></tr><tr><td>智能终端编码</td><td>54.20%</td><td>32.60%</td><td>42.80%</td><td>47.60%</td></tr><tr><td>智能编码</td><td>76.20%</td><td>59.60%</td><td>77.20%</td><td>76.30%</td></tr><tr><td>智能工具使用</td><td>85.40%</td><td>54.90%</td><td>84.70%</td><td>80.20%</td></tr><tr><td>长期智能任务</td><td>$5,478.16</td><td>$573.64</td><td>$3,838.74</td><td>$1,473.43</td></tr><tr><td>保留内部基础、参数化、多模态和搜索检索基准</td><td>70.50%</td><td>63.40%</td><td>50.40%</td><td>50.80%</td></tr><tr><td>参数化知识</td><td>72.10%</td><td>54.50%</td><td>29.30%</td><td>34.90%</td></tr><tr><td>多语言通用人工智能评估</td><td>91.80%</td><td>89.50%</td><td>89.10%</td><td>91.00%</td></tr><tr><td>跨100种语言和文化的常识推理</td><td>93.40%</td><td>91.50%</td><td>90.10%</td><td>90.90%</td></tr><tr><td>长上下文表现</td><td>77.00%</td><td>58.00%</td><td>47.10%</td><td>61.60%</td></tr></table> 资料来源:腾讯科技AI未来指北官方账号,华创证券 大模型深入渗透日常生活和工作场景,活跃用户数量不断攀升。随着大模型应用的开发,AI在内容生成、信息管理、智能决策、Agent等方面的能力在聊天服务、编程开发、教育培训、广告投放等领域得到应用落地,成为个人和企业提升效率的助力。国际方面,10月ChatGPT周度活跃用户突破8亿(DeepTech深科技转引自openAI开发者大会);谷歌浏览器的AI模式月活跃用户已达20亿,Gemini应用目前月活跃用户已达6.5亿 (侃见财经公众号);专攻企业服务的Anthropic则已经拥有30万企业用户(澎湃新闻引自新智元)。 Token调用量保持高速增长,显示出大模型终端推理需求持续向上。Token为大模型处理的最小文字单位,可被翻译为词元,不仅用于衡量大模型处理的任务量,也是最主流的大模型使用计费单位。根据OpenRouter的数据,2024年以来,各种大模型通过该平台的token调用量大幅提升,2025年11月模型token调用量已达到约25万亿,与10月相比提升了约5万亿。在具体模型上,x-ai旗下大模型Grok Code Fast 1异军突起,月度token调用量约5.5万亿;Antropic旗下Claude Sonnet 4.5的调用量为2.4万亿;谷歌旗下多款大模型位居月度token调用量前10的大模型之列,其中Gemini 2.5 Flash调用量最多,约为1.6万亿。 图表 13 OpenRouter 平台模型 token 调用量 资料来源:OpenRoute Token调用量的大幅增加是大模型功能突破与AI赋能业务的结果。谷歌季度电话会议披露,2025年,谷歌的月度Tokens调用量从5月的480万亿大幅上升至7月的980万亿,并在10月爆发式增长至1300万亿,提升节奏与谷歌Gemini2.5、NonaBanana等产品的更新步调一致。在搜索领域,AI概览功能和AIMode通过提升回答质量显著提升了用户搜索量。2025年12月,谷歌宣布旗下GeminiAI的深度研究模式(in-depthresearchmode),现在已支持中文等40多种语言,已向GoogleOneAI高级计划用户开放,从而提供强大的AI研究辅助能力。 图表 14 谷歌 Token 调用量增长示意图 (万亿) 资料来源:谷歌官网,华创证券(注:25年6月、8月及9月token调用量未披露) 与 token量的激增同步,大模型用户在向付费用户转化,有望实现AI投入闭环。大模型面世以来,个人与企业逐渐养成付费模型的使用习惯。据财联社报道,截至2025年7月,约3500万人付费订阅了ChatGPT Plus或Pro服务,其月费用一般分别为20美元和200美元;到2030年,预计至少有2.2亿人将为ChatGPT付费。Alphabet公布的2025三季度财务数据表示,该季度谷歌营业收入约为1023.5亿美元,同比增长 $16\%$ ;净利润为349.8亿美元,同比增长 $33\%$ ;其中,在大模型主要涉及的广告、搜索和云业务板块,谷歌分别收入742、565.6、151.5亿美元,同比分别增长 $9.9\%$ 、 $15\%$ 、 $35\%$ ,大模型的收入提升能力凸显。收入的增加将驱动大模型供应商继续优化模型服务,推动大模型投资与发展进入良性循环,进而带来算力需求的持续扩张。 图表 15 谷歌第三季度主要部门业绩指标 (亿美元) 资料来源:Bloomberg,华创证券(注:广告和搜索业务收入存在重叠) AI算力成为此轮AI发展的核心驱动力,海外大厂加快算力基础设施建设。ChatGPT掀起新一轮的AI发展浪潮,大模型的性能遵守Scalinglaw法则即大模型的最终性能主要与计算量、模型参数量和训练数据量三者的大小相关,AI算力成为此轮AI发展的核心驱动力。北美科技巨头纷纷加码AI相关投入,投资于数据中心、服务器和网络设备等基 础设施。CY2025前三季度北美云厂商Meta、亚马逊、谷歌、微软CapEx总和达2574.2亿美元( $\mathrm{YoY} + 65\%$ ),已超过2024全年总和。 图表 16 北美科技巨头资本开支快速上行 (亿美元) 资料来源:Bloomberg,华创证券 海外云厂商25年资本开支指引乐观,算力需求热度高涨。从海外云厂商对未来资本指引情况来看,北美三大云厂商2025年资本开支指引增幅均在 $50\%$ 以上。其中谷歌表示2025年资本开支将达910-930亿美元( $\mathrm{YoY} + 73.2\% -77.0\%$ ),开支主要用于服务器和数据中心的AI领域投资。Meta预计25年资本开支700-720亿美元( $\mathrm{YoY} + 87.9\% -93.3\%$ ),未来数年还将投入数千亿美元用于人工智能基础设施。亚马逊25年资本开支指引高达1250亿美元( $\mathrm{YoY} + 50.6\%$ )。 图表 17 海外大厂关于 capex 指引及描述 <table><tr><td>公司名称</td><td>最新全财年 capex 指引</td><td>财年对应自然季度</td><td>YoY (%)</td><td>语言描述</td></tr><tr><td>Amazon</td><td>1250亿美元</td><td>2025Q1-2025Q4</td><td>50.6%</td><td>大部分支出将用于支持技术基础设施的增长。这主要包括AWS的投资,以满足AI服务的需求,并支持北美和国际业务板块的技术基础设施。此外还会继续投资于提高我们履约和运输网络的能力,以支持未来的增长,还会投资当日达配送设施和入库网络,以及机器人和自动化技术,以提高配送速度,降低履约成本。这些资本投资将支持amazon未来多年的增长。</td></tr><tr><td>Google</td><td>910-930亿美元</td><td>2025Q1-2025Q4</td><td>73.2%-77.0%</td><td>将继续向AI领域倾斜,开支主要用于对服务器和数据中心的投资</td></tr><tr><td>Meta</td><td>700-720亿美元</td><td>2025Q1-2025Q4</td><td>87.9%-93.3%</td><td>除了2025年用于AI基础设施的资本开支之外,扎克伯格说表示未来数年,Meta还将投入数千亿美元用于人工智能基础设施,他仍然认为,从长远来看,大力投入资本支出和基础设施建设将成为一种战略优势。</td></tr></table> 资料来源:各公司业绩说明会、Bloomberg,华创证券 北美巨头战略合作坚定AI投资信心。2025年以来北美巨头英伟达、微软、OpenAI、Oracle等陆续签订投资 $+$ 战略合作事项,坚定AI投资信心,如英伟达9月宣布对OpenAI1000亿美金投资计划,支持OpenAI建设10GW数据中心。 图表 18 2025 年北美 AI 头部企业投资与战略合作关系一览 <table><tr><td>时间</td><td>投资/合作方</td><td>被投资/合作方</td><td>投资/合作方承诺</td><td>被投资/合作方承诺</td></tr><tr><td rowspan="5">2025年</td><td rowspan="5">微软</td><td rowspan="5">英伟达</td><td>①在 Azure 云平台大规模部署 NVIDIA DGX SuperPOD 架构;</td><td>①在 Azure AI Foundry 中提供 NVIDIA NIM 服务</td></tr><tr><td>②深度集成 NVIDIA AI 软件栈;</td><td>②优化热门开源语言模型的推理功能并确保这些模型能在 Azure AI Foundry 上使用</td></tr><tr><td>③在 Azure 市场推出由基于 NVIDIA GPU 的 Azure 虚拟机驱动的创新产品;</td><td>③联合开发 Azure ND GB200 V6 等虚拟机实例,配备 NVIDIA 网络加速器</td></tr><tr><td>④支持 NVIDIA NIM 的 Azure Container Apps 无服务器图形处理单元正式上市;</td><td></td></tr><tr><td>⑤将 NVIDIA Blackwell Ultra GPU 和 NVIDIA RTX PRO 6000 Blackwell 服务器版引入 Azure。</td><td></td></tr><tr><td rowspan="2">2025-2026 分批次</td><td rowspan="2">英伟达</td><td rowspan="2">OpenAI</td><td>①向 OpenAI 进行分阶段投资,总额最高达 1000 亿美元。首笔 100 亿美元投资将在首个 1 吉瓦数据中心建成并达成最终协议时支付,后续投资将随着每个吉瓦数据中心的建成而逐步投入;</td><td>①部署至少 10GW 的 NVIDIA 系统,用于训练和运行下一代 AI 模型</td></tr><tr><td>②支持 OpenAI 建设 10GW 的 AI 数据中心。</td><td>②联合优化 OpenAI 的模型路线图、基础设施软件与英伟达的硬件及软件</td></tr><tr><td rowspan="2">2025 年初</td><td rowspan="2">OpenAI</td><td rowspan="2">Oracle</td><td>①签署为期 5 年、总价值约 3000 亿美元的云服务采购协议,长期使用 Oracle 建设的 AI 数据中心算力。</td><td>①在美国德克萨斯州阿比林等地投资建设超大规模 AI 数据中心 (Stargate 项目),定期交付并满足 OpenAI 训练与推理需求;</td></tr><tr><td></td><td>②提供总计 4.5GW 数据中心容量及英伟达 GB200 芯片;</td></tr><tr><td>2025.5</td><td>Oracle</td><td>英伟达</td><td>①以单价约 10 万美元采购约 40 万片 GB200 Superchip 芯片,总金额约 400 亿美元,用于支持 OpenAI Stargate 数据中心建设。</td><td>①按期交付 GB200 芯片;</td></tr><tr><td>2025.11</td><td>微软+英伟达</td><td>Anthropic</td><td>①微软、英伟达分别投资至多 50 亿、100 亿美元;</td><td>①向微软采购 300 亿美元 Azure 算力和最高 1GW 额外算力</td></tr><tr><td rowspan="2"></td><td rowspan="2"></td><td rowspan="2"></td><td>②微软继续为 Claude 提供在微软 Copilot 系列产品中的访问权限。</td><td>②算力完全基于英伟达的 Grace Blackwall 和 Vera Rubin 架构;</td></tr><tr><td></td><td>③允许微软和英伟达云服务平台使用 Claude</td></tr></table> 资料来源:各公司官网,IT之家,华尔街日报、路透社,转引自币界网,AI科技网,华尔街见闻,爱范儿,至顶头条,华创证券 # (二)英伟达占据全球主导地位,硬件与CUDA生态共筑深厚壁垒 GPU的核心性能指标主要包括核心数量、工作频率、显存容量、显存带宽、计算能力与精度覆盖范围。GPU的核心数量越多,在处理任务时就能够同时处理更多线程,不仅能够显著提升性能,也能分摊工作负载。GPU的并行计算性能通常以GFLOPS(每秒十亿次浮点运算)表示,更高的计算能力代表着更快的运算速度和更高的产出。对于AI加速计算,GPU的计算精度覆盖范围也很重要,能够支持多种精度水平的GPU不仅具备更高的灵活度,也能在多样化的AI任务中实现更佳的性能与能效。 图表 19 GPU 核心参数 <table><tr><td>GPU参数</td><td>说明</td></tr><tr><td>核心数量</td><td>作为GPU的核心指标,核心数量越多,GPU在处理图形渲染、科学计算、AI计算加速等任务时能够处理更多线程,提升运算效率。核心数的增加不仅可以显著提升性能,也能有效分摊工作负载,从而更好地满足高强度计算需求。</td></tr><tr><td>时钟速度</td><td>时钟速度指GPU每秒可执行的时钟周期数,对数据处理速度和性能输出具有直接影响。更高的时钟速度意味着在同等时间内能够完成更多的运算任务,满足对实时性、低延时的应用场景需求。</td></tr><tr><td>显存容量</td><td>显存是GPU临时存储数据的空间,容量的大小在处理大型数据集、高分辨率图像或视频时尤为重要。较大的显存容量可减少GPU与系统内存之间的频繁数据传输,在多任务或高分辨率场景下有效提升性能和效率。</td></tr><tr><td>显存带宽</td><td>显存带宽指单位时间内GPU内部存储器可传输的数据量。较高的显存带宽确保了在面对高负载时,数据能被快速送达处理核心,进而维持流畅的运行效率。对需要高吞吐量的应用(如深度学习推理或复杂图形渲染)而言,显存带宽是关键的性能瓶颈之一。</td></tr><tr><td>计算能力</td><td>计算能力通常以GFLOP/S(每秒十亿次浮点运算)表示,是衡量GPU并行计算性能的主要指标。更高的计算能力意味着在AI计算、科学计算、工程模拟等高强度场景中可以实现更快的运算速度和更高的产出。</td></tr><tr><td>计算精度覆盖范围</td><td>GPU支持的计算精度范围(如FP64、FP32、FP16、FP8、INT8等)反映了其在多样化任务中的灵活度。随着AI技术的不断演进,不同的应用场景对计算精度的要求也各不相同。能够支持多种精度水平的GPU不仅具备更高的灵活度,也能在多样化的AI任务中实现更佳的性能与能效。</td></tr></table> 资料来源:摩尔线程招股说明书,华创证券 英伟达处于全球GPU市场领先地位。英伟达(NVIDIA)总部位于美国加利福尼亚州,自1993年成立起就专注于GPU的设计开发,形成了强大的实力和竞争壁垒。根据泡泡网转载的Jon Peddie Research的报道,在PC(个人电脑)领域,2025年二季度英伟达独立显卡的市场份额达到 $94\%$ ,断崖式领先于AMD及其他厂商。随着大模型训练推理需求的兴起,英伟达凭借领先的GPU产品和生态在AI领域进一步称霸市场。 在数据中心GPU市场,英伟达一家独大且保持高速增长。据蓝鲸科技报导,在以GPU芯片为主导的AI数据中心市场,英伟达占据了 $90\%$ 以上的市场份额。在过去四个财季中,英伟达的总收入从Q4FY25的393.3亿美元上涨到Q3FY26(截至2025年10月26日)的570.1亿美元,Q3同比提升 $62.5\%$ 。其中,数据中心业务收入从355.8亿美元提升至512.2亿美元,Q3同比增长约 $66.4\%$ ,是整体业务增长的核心驱动力。按季度划分,数据中心业务在总收入中的占比分别约为 $90.5\%$ 、 $88.8\%$ 、 $87.9\%$ 、 $89.8\%$ ,显现了市场对于数据中心GPU产品有着强盛需求。此外,英伟达在数据中心方面仍有充足订单。公司首席财务官(CFO)科莱特·克雷斯(ColetteKress)披露了一组令人瞩目的数据:目前可见至2026年底,仅Blackwell和Rubin两大AI加速平台就将为公司带来约5000亿美元的可见收入。 图表20 英伟达总营收(亿美元) 资料来源:英伟达官网,华创证券 图表21 英伟达数据中心营收(亿美元) 资料来源:英伟达官网,华创证券 英伟达GPU产品AI智算性能不断革新,GB300专为推理任务打造。A100兼具大模型推理和训练性能,在此基础上,H系列训练和推理计算性能均大幅提升,GB系列进一步提升。据英伟达官网,GB200的LLM推理性能是H100的30倍,训练性能是H100的4倍,此外还通过液冷式机柜设计使得节能效果是H100的25倍。英伟达GB300采用NVIDIA Blackwell Ultra GPU,相较于NVIDIA Blackwell GPU,其密集FP4 Tensor核心FLOPS高出1.5倍,注意力效能高出2倍,专为测试阶段扩展推理与AI推理任务而打造。 图表 22 英伟达硬件产品参数对比 <table><tr><td></td><td>A100 SXM</td><td>H100 SXM</td><td>H200 SXM</td><td>GB200 NVL72</td><td>GB300 NVL72</td></tr><tr><td>Blackwell Ultra GPUs|Grace CPUs</td><td></td><td>-</td><td>-</td><td>72|36</td><td>72|36</td></tr><tr><td>FP4 Tensor Core</td><td></td><td>-</td><td>-</td><td>20 PFLOPS</td><td>20 PFLOPS|15 PFLOPS</td></tr><tr><td>FP8 Tensor Core</td><td>-</td><td>3.958 PFLOPS</td><td>3.958 PFLOPS</td><td>10 PFLOPS</td><td>10 PFLOPS</td></tr><tr><td>FP6 Tensor Core</td><td>-</td><td>-</td><td>-</td><td>10 PFLOPS</td><td>10 PFLOPS</td></tr><tr><td>INT8 Tensor Core</td><td>624 TOPS</td><td>3958 TOPS</td><td>3958 TFLOPS</td><td>10 TOPS</td><td>330 TOPS</td></tr><tr><td>FP16/BF16 Tensor Core</td><td>0.312|0.624 PFLOPS</td><td>1.979 PFLOPS</td><td>1.979 PFLOPS</td><td>5 PFLOPS</td><td>5 PFLOPS</td></tr><tr><td>TF32 Tensor Core</td><td>0.156|0.312 PFLOPS</td><td>0.989 PFLOPS</td><td>0.989 PFLOPS</td><td>2.5 PFLOPS</td><td>2.5 PFLOPS</td></tr><tr><td>FP32</td><td>19.5 TFLOPS</td><td>67 TFLOPS</td><td>67 TFLOPS</td><td>80TFLOPS</td><td>80 TFLOPS</td></tr><tr><td>FP32 Tensor Core</td><td></td><td>-</td><td>-</td><td>80 TFLOPS</td><td>80 TFLOPS</td></tr><tr><td>FP64</td><td>9.7 TFLOPS</td><td>34 TFLOPS</td><td>32 TFLOPS</td><td>40 TFLOPS</td><td>1.3 TFLOPS</td></tr><tr><td>FP64 Tensor Core</td><td>19.5 TFLOPS</td><td>67 TFLOPS</td><td>67 TFLOPS</td><td>40 TFLOPS</td><td>1.3 TFLOPS</td></tr><tr><td>GPU 容量</td><td>80GB HBM2E</td><td>80GB HBM3</td><td>141GB HBM3E</td><td>186GB HBM3E</td><td>279GB HBM3E</td></tr><tr><td>GPU 带宽</td><td>1.935TB/s</td><td>3.35TB/s</td><td>4.8TB/s</td><td>8TB/s</td><td>8TB/s</td></tr><tr><td>最大热设计功耗(TDP)</td><td>300w</td><td>700w</td><td>700W</td><td>1200W</td><td>1400W</td></tr><tr><td>互联技术</td><td>NVLink: 600GB/s;PCIe Gen5: 64GB/s</td><td>NVLink: 900GB/s;PCIe Gen5: 128GB/s</td><td>NVLink: 900GB/s;PCIe Gen5: 128GB/s</td><td>NVLink: 1.8TB/s;PCIe Gen5: 128GB/s</td><td>NVLink: 1.8TB/s;PCIe Gen5: 256GB/s</td></tr></table> 资料来源:英伟达官网,华创证券 CUDA编程工具可大幅降低开发门槛,构建其在AI智算领域的护城河。CUDA(Compute Unified Device Architecture)是一套英伟达提供给开发人员的编程工具。它连接主机端和设备端,使得工程师能够直接调用GPU,用其并行结构高效运行计算任务,而无需直接编写底层硬件控制代码。通过CUDA,开发者可以使用C++等高级编程语言来编写复杂的并行算法,充分利用GPU的计算能力来加速实现大模型训练和推理。此外,CUDA还提供了丰富的库和工具集,帮助开发者即使不深入底层硬件也能进一步优化程序性能,从而高度简化开发流程、提高开发效率。从2007年发布以来,CUDA都只能在英伟达平台上使用。 图表 23 CUDA 构架示意图 资料来源:英伟达官网 图表 24 CUDA 的组成部分 资料来源:英伟达官网 # 三、美国扩大高端GPU出口限制,国产奋起力争自主可控 # (一)美国扩大出口管制范围,国产GPU自主可控迫在眉睫 美国多次修订出口规则管制范围,国产算力自主可控迫在眉睫。近年来,美国多次修订出口管制规则,旨在限制中国从美国进口先进的AI处理器用于人工智能的训练。虽然近日特朗普允许英伟达向中国出售H200,但一方面更高阶GB200、GB300仍存限制,另一方面多次修订的出口管制范围也加强了国产GPU实现自主可控的紧迫程度。 国家政府立足发展需求,高度支持国产算力产业发展。2025年8月,国务院出台《关于深入实施“人工智能+”行动的意见》,其中提出“应强化智能算力统筹,支持人工智能芯片攻坚创新与使能软件生态培育,加快超大规模智算集群技术突破和工程落地”。同月,在《电子信息制造业2025-2026年稳增长行动方案》中,两部门提出“加强CPU、高性能人工智能服务器、软硬件协同等攻关力度,开展人工智能芯片与大模型适应性测试。适度超前部署新型基础设施建设,提升各地已建基础设施运营管理水平,强化服务器、芯片和关键模块的兼容适配”,并从供应链政策支持、加强基础技术研究、促进国际合作、构筑人才队伍等角度为先进算力产业助力,继承发展了既往算力领域的积极政策。持续利好的政策为国产算力实现自主可控创造良好条件。 # (二)国内GPU厂商加速追赶,国产替代星辰大海 AI 热潮下,GPGPU 国产替代如火如荼。美国不断升级对华限制导致英伟达高端 GPU 在中国市场供应几乎被完全切断。在市场空缺和国家战略的双重刺激下,国产 GPU 企业迎来历史性发展机遇。当前,寒武纪、海光信息、摩尔线程、沐曦股份等国内厂商推出多款 AI 智算芯片产品,并逐步追赶国际领先标准。 # (1)华为昇腾:自研达芬奇构架,昇腾910持续更新 华为持续研发昇腾系列商用GPU产品,力争自主可控。华为全资控股的子公司海思科技专门从事半导体及器件设计,2018年华为发布昇腾310(12nm,终端低功耗,最大功耗8W)和昇腾910(7nm,云端高算力,可组成Ascend集群)两款AI芯片,均基于达芬奇架构。后续的昇腾910B基于7nm+EUV工艺与32核自研架构,支撑千亿参数大模型训练,已实现规模化落地。基于华为昇腾系列AI处理器和基础软件,华为构建Atlas人工智能计算解决方案,包括Atlas系列模块、板卡、小站、服务器、集群等丰富的产品形态,打造面向“端、边、云”的全场景AI基础设施方案,覆盖深度学习领域推理和训练全流程。 图表 25 华为昇腾系列产品 资料来源:华为官网 # (2) 寒武纪:聚焦人工智能,MLU590表现亮眼 寒武纪围绕人工智能发展四大产品线。寒武纪成立于2016年,专注于人工智能芯片及基础系统软件的研发设计,形成云端、边缘端、IP授权及软件、智能计算集群系统核心业务布局。近年公司云端产品线(包括智能芯片、加速卡及训练整机)持续深化与互联网及大模型头部企业的技术合作,产品在自然语言处理场景实现批量出货。边缘端产品聚焦智能制造、智能驾驶等低延时场景,IP授权及软件平台提供跨云边端一体化开发工具,智能计算集群系统为AI应用部署提供整体解决方案。 AI芯片产品矩阵更新引领国内行业突破。据北方算网公众号数据,思元590基于7nm工艺打造,支持云端和端侧应用,具备314TFLOPS(FP16)的峰值算力、80GB显存和高达2TB/s的带宽。在分布式计算和大规模模型训练任务中表现尤为突出。其架构具有端云一体的可扩展性,以TP(Tensor Processor)和MTP(Multi Tensor Processor)作为最小扩展单元:TP适用于单个IPU核心,适合低功耗的端侧应用;MTP则由多个IPU核心组成的Cluster,面向高性能的云端任务,可通过单机多卡或多机多卡的MLU-Link集群实现并行加速,满足云端AI计算和分布式任务的多样化需求。MLU590的设计在性能、灵活性和扩展性之间达到了良好平衡,是AI训练和推理的重要选择。为满足更多元化的市场需求,寒武纪在2024年11月推出MLU370-X4,主打高性价比AI加速方案。相比MLU590,它的FP16算力为96TFLOPS,配备24GBLPDDR5内存,内存带宽307.2GB/s,最大设计功耗150W。这款新品在延续寒武纪技术优势的基础上,以更低功耗和适中性能,为中低端AI推理任务提供了新选择,拓宽了寒武纪产品的应用场景。 图表26 寒武纪MLU370 资料来源:寒武纪招股书 图表 27 寒武纪智能处理器架构示意图 资料来源:寒武纪招股书 # (3) 海光信息: CPU、DCU 双线发展, 深算三号进展顺利 海光业务以商用CPU和DCU为主。海光信息成立于2014年,主营业务是研发、设计和销售应用于服务器、工作站等计算、存储设备中的高端处理器。公司的产品包括海光通用处理器(CPU)和海光协处理器(DCU,GPGPU的一种)。面向企业计算、云计算数据中心、大数据分析、人工智能、边缘计算等众多领域,海光信息提供多种形态的海光处理器芯片,满足互联网、电信、金融、交通、能源、中小企业等行业的广泛应用需求。 公司DCU采用通用并行计算架构,能够较好地适配、适应国际主流商业计算软件和人工智能软件。海光DCU基于通用图形处理器设计理念,具有全精度支撑能力,按照代际进行升级迭代,每代际产品细分为8000系列的各个型号。公司核心产品包括深算一号、深算二号和深算三号。目前深算三号产品进展顺利,海光DCU产品已与互联网、金融、电信等各大行业、企业用户进行了广泛适配,适配效果较好,能够支持人工智能、大数据、云计算等领域的发展。配套的开发工具套件DTK、人工智能基础软件栈DAS及应用平台DAP形成的“三驾马车”,可全面覆盖从十亿级到千亿级模型的训练与推理需求,为各行业AI创新提供一体化支撑。其中,海光DCU具备自主研发的开发工具套件DTK,是目前国内最为完备的生态之一,减少了应用迁移难度。完善的统一底层硬件驱动平台,能够适配不同API接口和编译器,并支持常见的函数库,在百度、阿里等头部互联网厂商得到认证,并推出联合方案,打造全国产软硬件一体全栈AI基础设施。 针对AI行业应用场景,海光DCU已形成多元化落地成果。在科研领域,支撑全球首个L2级高能物理大模型“溪悟”及科研智能体系统“赛博士”实现世界领先的数据分析效率;在医疗领域,与卫宁健康等伙伴合作的医疗AI解决方案已在全国30多个项目落地,为临床诊断、基因分析等提供高效算力支持;在天文领域,处理中国天眼FAST的海量观测数据时,计算效率较传统CPU提升超百倍,碳星识别等场景性能表现突出。 图表 28 海光信息产品示意图 资料来源:海光官网 图表 29 海光软件栈示意图 资料来源:海光官网 # (4) 摩尔线程: 拥有完整 GPU 产品矩阵, 最新架构 “平湖” 功能强大 摩尔线程是拥有完整GPU产品矩阵和解决方案的供应商。摩尔线程成立于2020年,以自主研发的全功能GPU为核心,自建MUSA架构,致力于向全球提供加速计算的基础设施和一站式解决方案。公司已成功推出四代GPU架构,并形成了以大模型智算加速卡MTTS4000、大模型训推一体机MCCXD800X1、专业视觉加速卡MTTX300等产品为代表的多元计算加速产品矩阵,产品线涵盖政务与企业级智能计算、数据中心及消费级终端市场。 图表30 摩尔线程主要产品分类 <table><tr><td colspan="3">分类</td><td>芯片</td><td>板卡/模组</td><td>一体机</td><td>集群设备</td></tr><tr><td rowspan="4">服务器级</td><td rowspan="2">AI智算</td><td rowspan="2">企业级</td><td>第四代GPU“平湖”</td><td>S5000</td><td rowspan="2">D800 X1/X</td><td>KUAE2</td></tr><tr><td>第三代GPU“曲院”</td><td>S4000</td><td>KUAE1</td></tr><tr><td rowspan="2">专业图形加速</td><td rowspan="2">企业级</td><td>第二代GPU“春晓”</td><td>S3000</td><td>D200/D400/D800</td><td>MCCX</td></tr><tr><td>第一代GPU“苏堤”</td><td>S1000/S2000</td><td rowspan="4">-</td><td rowspan="6">-</td></tr><tr><td rowspan="3" colspan="2">桌面级图形加速</td><td>消费级</td><td>第二代GPU“春晓”</td><td>S70/S80</td></tr><tr><td rowspan="2">企业级</td><td>第二代GPU“春晓”</td><td>X300</td></tr><tr><td>第一代GPU“苏堤”</td><td>S10/S30/S50/X100</td></tr><tr><td rowspan="2" colspan="2">智能SoC类</td><td>企业级</td><td rowspan="2">第一代SoC“长江”</td><td rowspan="2">AI模组-E300</td><td rowspan="2">AI算力本-A140</td></tr><tr><td>消费级</td></tr><tr><td colspan="3">示意图</td><td></td><td></td><td></td><td></td></tr></table> 资料来源:摩尔线程招股书,华创证券 摩尔线程最新芯片架构“平湖”AI智算性能显著提升。2024年摩尔线程推出第四代芯片架构“平湖”,最大频率提升至 $2.0\mathrm{GHz}$ ,Tensor核心数量升级为512个,增加了FP8精度支持,大幅提升AI算力。最大显存容量80G,支持更训练更复杂的模型。使用自研MT Codec Gen3编解码器,AI视觉处理编解码效率提升。片间互联带宽800GB/s,摩尔线程基于该芯片支撑面向DeepSeek类前沿大模型预训练的万卡集群智算中心解决方案。 图表31 摩尔线程MTTS4000 资料来源:摩尔线程官网 图表32 MUSA架构示意图 资料来源:摩尔线程招股书 # (4)沐曦股份:打造全栈GPU芯片产品,曦云C500已实现量产 沐曦股份是拥有全栈开发能力的GPU供应商。沐曦股份成立于2020年,致力于自主研发全栈高性能GPU芯片及计算平台,主营业务是研发、设计和销售全栈GPU产品,并围绕GPU芯片提供配套的软件栈与计算平台。公司产品采用自主研发的GPU IP和指令集、统一的GPU计算和渲染架构,形成了由用于AI智算的曦思N系列,用于推训一体和通用计算的曦云C系列,以及用于图形渲染的曦彩G系列构成的GPU产品体系和自主开放的软件生态,以满足“高能效”和“高通用性”的算力需求。公司产品涵盖了计算(包括训练、推理、通用计算)和渲染的全场景,并已实现多款高性能GPU产品的量产销售。 图表 33 沐曦股份产品分类 <table><tr><td>产品类型</td><td>型号</td><td>产品特征</td><td>应用场景</td></tr><tr><td rowspan="2">训推一体 GPU</td><td>曦云 C500 系列</td><td rowspan="2">公司曦云 C 系列产品拥有多精度混合算力,内置大量运算核心,具有较强的并行计算能力和较高的能效比,适用于向量计算和矩阵计算等计算密集型应用,可广泛应用于智算训练与推理、通用计算、AI for Science 等场景</td><td rowspan="2">云端智算(训推一体)、通用计算、AI for Science 等</td></tr><tr><td>曦云 C600 系列</td></tr><tr><td rowspan="3">智算推理 GPU</td><td>曦思 N100 系列</td><td>公司曦思 N100 产品系面向传统人工智能场景,内置性能强劲的视频处理器和运算核心,可广泛应用于智慧城市、智慧交通、智慧教育、智能视频处理等场景</td><td>云端及边端推理、视频转码</td></tr><tr><td>曦思 N260 系列</td><td rowspan="2">公司曦思 N 系列后续迭代产品系面向生成式人工智能场景,拥有多精度混合算力、大容量显存和较高的能效比,可广泛应用于大模型推理、生成式应用等场景</td><td rowspan="2">云端推理、一体机及工作站</td></tr><tr><td>曦思 N300 系列</td></tr><tr><td>图形渲染 GPU</td><td>曦彩 G100 系列</td><td>公司曦彩 G 系列产品系面向图形处理场景,内置性能强大的图形处理器,可广泛应用于云游戏、数字孪生、云渲染、影视动画和专业制图等场景</td><td>云端及边缘端图形处理</td></tr></table> 资料来源:沐曦股份招股书,华创证券 公司曦云C500适用于大模型训练及推理任务,已实现量产。曦云C500采用公司自研的XCORE1.0架构及指令集,面向云端人工智能训练与推理、通用计算、AI for Science等计算任务。芯片拥有标量、矢量和张量计算单元,支持多种混合精度计算;采用HBM2e显存,显存容量64GB;支持卡间高速互连。基于MetaXLink互连技术,公司的单颗芯片产品拥有7个高速MetaXLink互连接口,具备超多卡互连能力,支持千亿参数以上规模AI大模型训练算力集群建设。自研MXMACA软件栈适配主流算法框架、运算库、通信库、操作系统、编程语言、调试和运维管理工具等,编程接口在API层面实现了对CUDA生态的高度兼容。 图表 34 沐曦股份曦云 C500 资料来源:沐曦股份招股书 图表 35 MXMACA 模型软件栈框架结构 资料来源:沐曦股份招股书 # (三)GPU供应商主攻路线各有差异,沐曦/摩尔线程指引有望于26/27年陆续转盈 从各公司创始团队及核心成员来源来看,寒武纪核心创始成员均来自中科院计算所,海光信息核心高管大部分来自中科曙光,摩尔线程创始成员来自英伟达,沐曦股份创始成员多数来自超威半导体。作为高技术壁垒的GPU行业供应商,公司创始成员及核心技术人员的来源往往决定了公司的技术基础并决定了未来发展路线。 图表 36 各公司创始团队/核心团队来源梳理 <table><tr><td></td><td>姓名</td><td>现任职务</td><td>原有工作任职期间</td><td>原有职务</td></tr><tr><td rowspan="7">寒武纪</td><td>姓名</td><td>职务</td><td>中科院任职期间</td><td>中科院任职职务</td></tr><tr><td>陈天石</td><td>董事长、总经理</td><td>2010-2019</td><td>就职于中科院计算所,历任助理研究员、副研究员、硕士生导师、研究员、博士生导师</td></tr><tr><td>王在</td><td>董事、副总经理兼首席运营官</td><td>2016-2018</td><td>就职于中科院计算所从事科研工作</td></tr><tr><td>刘少礼</td><td>董事、副总经理</td><td>2014-2019</td><td>就职于中科院计算所并任副研究员</td></tr><tr><td>张佩珩</td><td>董事(已离职)</td><td>2005-2016</td><td>任职于中科院计算所高性能计算机研究中心,历任中心副主任、中心主任职务</td></tr><tr><td>喻歆</td><td>职工监事,验证部总监(已离职)</td><td>2016-2019</td><td>就职于中科院计算所,任高级工程师</td></tr><tr><td>刘道福</td><td>副总经理(已离职)</td><td>2015-2019</td><td>就职于中科院计算所,历任助理研究员、高级工程师</td></tr><tr><td rowspan="5">海光信息</td><td>姓名</td><td>职务</td><td>中科曙光任职期间</td><td>中科曙光任职职务</td></tr><tr><td>沙超群</td><td>董事、总经理</td><td>2011-2020</td><td>技术副总裁、高级副总裁</td></tr><tr><td>徐文超</td><td>董事、副总经理、财务总监、董事会秘书</td><td>2017 -2021</td><td>董事、董事会秘书、高级副总裁</td></tr><tr><td>王颖</td><td>副总经理</td><td>2006 -2020</td><td>副总裁</td></tr><tr><td>刘新春</td><td>副总经理</td><td>2009 -2016</td><td>研发中心负责人</td></tr><tr><td rowspan="5">摩尔线程</td><td>姓名</td><td>职务</td><td>英伟达任职期间</td><td>英伟达任职职务</td></tr><tr><td>张建中</td><td>创始人、董事长、总经理</td><td>2006 -2020</td><td>英伟达全球副总裁,大中华区总经理</td></tr><tr><td>周苑</td><td>联合创始人、职工董事</td><td>2004 -2020</td><td>英伟达市场生态高级总监</td></tr><tr><td>张钰勃</td><td>联合创始人、董事、副总经理</td><td>2013 -2017</td><td>英伟达GPU架构师</td></tr><tr><td>王东</td><td>联合创始人、副总经理</td><td>2007-2019</td><td>英伟达销售总监</td></tr><tr><td rowspan="6">沐曦</td><td>姓名</td><td>职务</td><td>AMD 任职期间</td><td>AMD 任职职务</td></tr><tr><td>陈维良</td><td>董事长、董事</td><td>2007 年-2020 年</td><td>超威半导体(上海)有限公司高级总监</td></tr><tr><td>彭莉</td><td>董事、副总经理、首席技术官</td><td>2007-2020</td><td>超威半导体(上海)有限公司企业院士</td></tr><tr><td>杨建</td><td>董事、副总经理、首席技术官</td><td>2007-2019</td><td>超威半导体(上海)有限公司企业院士</td></tr><tr><td>陈阳</td><td>总经理助理</td><td>2015-2020</td><td>超威半导体(上海)有限公司项目经理</td></tr><tr><td>周俊</td><td>研发总监</td><td>2009-2020</td><td>超威半导体(上海)有限公司资深研发经理</td></tr></table> 资料来源:各公司招股说明书,华创证券(注:选用资料截至各公司上市,仅用于创始及核心团队来源参考;核心人员未列举完全) 从国产四大GPU上市公司产品路线及收入规模来看,海光信息CPU产品贡献主要营收,由于信创对于国产化强需求,信创CPU产品带动整体收入实现较快起量,因此海光目前收入规模最高;寒武纪深耕AI智能芯片,收入放量强依赖于互联网客户验证及部署进程,因此收入在25年实现爆发式增长。摩尔线程和沐曦股份均提供通用GPU产品,覆盖人工智能计算、图形处理等多领域,目前AI领域仍贡献主要收入。但由于摩尔线程和沐曦成立时间较短,目前仍处于商业化落地前期,收入规模相对较小。 海光信息:公司产品包括海光通用处理器(CPU)和海光协处理器(DCU),其中CPU营收占比较大。海光CPU系列产品兼容x86指令集以及国际上主流操作系统和应用软件,具有较强的系统兼容性和安全性,已大规模应用于电信、金融等信创领域,由于重点信创领域起量对安全性要求刚需、起量相对较快,因此海光信息整体收入规模较大。 寒武纪:公司主要产品为应用于云服务器、边缘计算设备、终端设备中人工智能核心芯片,云端智能芯片及板卡是云服务器、数据中心等进行人工智能处理的核心器件,因此除信创领域外,商业场景亦是公司核心应用场景。2025年公司持续深化与大模型、互联网等前沿领域头部企业的技术合作,产品持续在运营商、金融、互联网等多个重点行业规模化部署并通过了客户严苛环境的验证。由于公司客户集中度较高(24年前五大客户收入占比 $94.63\%$ ),在通过验证并进行规模化部署后会实现快速放量,公司25年前三季度实现营收46.07亿元( $\mathrm{YoY} + 2386.38\%$ ) 摩尔线程:公司产品包括AI智算产品以及图形计算产品,拥有自主研发的融合GPU硬件和软件的全功能GPU计算加速统一系统架构,提供全功能GPU,应用场景更为广泛。由于成立时间相对较短,目前仍处于放量早期,公司25年前三季度实现营收7.85亿元 $(\mathrm{YoY} + 181.99\%)$ 沐曦股份:公司产品包括AI智算产品以及图形计算产品,聚焦人工智能计算、通用计算和图形渲染三大领域,提供通用GPU,应用场景广泛。由于成立时间相对较短,产品进入重点行业客户需经历严苛的技术验证及生态适配周期,目前仍处于放量早期,公司25年前三季度实现营收12.36亿元( $\mathrm{YoY} + 453.52\%$ )。 图表 37 国产 GPU 上市公司收入情况分析 (亿元) 资料来源:Wind、沐曦股份招股说明书、摩尔线程招股说明书,华创证券 寒武纪24Q4开始单季度转盈,沐曦及摩尔线程指引预计最早26/27年实现盈利。由于GPU行业产品导入周期长且技术积累极高,在爬坡早期毛利规模无法覆盖高额研发支出,因此早期通常处于亏损状态。海光信息2021年实现全年转盈,2021年实现净利率 $18.94\%$ 当年实现营收23.1亿元;寒武纪于2024Q4实现单季度转盈。2025年Q1-Q3均实现单季度盈利,前三季度净利率 $34.81\%$ (前三季度实现收入46.07亿元)。摩尔线程和沐曦目前仍未实现盈利,据招股说明书,摩尔线程预计最早于2027年实现合并报表盈利,沐曦股份预计最早2026年实现盈亏平衡。 图表 38 GPU 上市公司毛利率情况 资料来源:Wind,华创证券 图表39 寒武纪及海光信息净利率情况 资料来源:Wind,华创证券 # 四、相关标的 # 1、寒武纪 云边端协同发展,掌握核心技术构筑竞争壁垒。公司主营业务为应用于各类云服务器、边缘计算设备、终端设备中人工智能核心芯片的研发、设计和销售,为客户提供丰富的芯片产品与系统软件解决方案。公司在智能芯片领域掌握了智能处理器微架构、智能处理器指令集、SoC芯片设计、处理器芯片功能验证、先进工艺物理设计、芯片封装设计与量产测试、硬件系统设计等七大类核心技术;在基础系统软件技术领域掌握了编程框架适配与优化、智能芯片编程语言、智能芯片编译器、智能芯片数学库、智能芯片虚拟化软件、智能芯片核心驱动、云边端一体化开发环境等七大类核心技术。公司的主要产品包括终端智能处理器IP、云端智能芯片及加速卡、边缘智能芯片及加速卡以及与上述产品配套的基础系统软件平台。 持续大力投入科研,引领国内芯片进化。2024年,公司研发投入达10.72亿元。在硬件方面,公司积极研发新一代智能处理器微架构和指令集,着重提升大模型训推能力;在软件方面,公司对基础软件系统平台也不断进行优化和迭代。公司持续推进训练软件平台的研发和改进,以客户需求牵引新增功能和通用性支持,并大力推进大模型业务的支持和优化。同时,公司也不断优化推理软件平台在大模型适配、开源生态建设及易用性优化、大模型推理解决方案上的表现。截至2024年12月31日,公司累计申请的专利为2743项。2024年6月,寒武纪发布旗舰产品MLU590,聚焦AI训练与推理,表现亮眼。 产品力为基,应用落地拓展市场。依托于智能芯片产品及其配套软件平台的技术领先优势,寒武纪产品持续在互联网、运营商、金融等多个重点行业应用场景落地,公司产品在软件平台易用性、大规模商业场景部署的稳定性、人工智能应用场景的普适性均通过了客户严苛环境的验证。在互联网及运营商领域,公司的产品力得到了客户的广泛认可。在金融领域,公司持续加深与银行、保险公司及基金公司的业务探索。除了为传统人工智能应用场景持续提供算力支持外,公司全面开展大模型的适配优化工作,帮助客户实现大模型在实际业务场景中的落地应用。在交通领域,公司成功参与多地车路云一体化项目、智慧停车、智慧高速业务,助力交通数字信息化发展。在轨道行业,公司在智慧货检、语音购票等方面与关键客户展开深入合作,推进铁路服务智能化升级。在其他垂直行业,公司的智能芯片产品继续为传统产业智能化转型保驾护航,助力智慧矿山、智慧粮仓业务的落地。受益于应用扩大和合作深化,2025年第三季度,公司实现营业收入17.27亿元,同比增长 $1332.52\%$ ,营业利润5.67亿元,与去年同期相比实现扭亏为盈。 # 2、海光信息 聚焦高端处理器,CPU、DCU双线发展。公司的主营业务是研发、设计和销售应用于服务器、工作站等计算、存储设备中的高端处理器。公司的产品包括海光通用处理器(CPU)和海光协处理器(DCU)。海光CPU系列产品兼容x86指令集以及国际上主流操作系统和应用软件,软硬件生态丰富,性能优异,安全可靠,已经广泛应用于电信、金融、互联网、教育、交通等重要行业或领域。海光DCU系列产品以GPGPU架构为基础,可广泛应用于大数据处理、人工智能、商业计算等应用领域。2025年前三季度,公司营业收入达94.90亿元,同比增长 $54.65\%$ ;营业利润28.40亿,同比增长 $31.51\%$ 。 公司生态兼容性突出,在百度、阿里等头部互联网厂商得到认证。海光DCU基于通用图形处理器设计理念,具有全精度支撑能力,按照代际进行升级迭代,每代际产品细分为8000系列的各个型号。公司核心产品包括深算一号、深算二号和深算三号。目前深算三 号产品进展顺利,海光DCU产品已与互联网、金融、电信等各大行业、企业用户进行了广泛适配,适配效果较好,能够支持人工智能、大数据、云计算等领域的发展。配套的开发工具套件DTK、人工智能基础软件栈DAS及应用平台DAP形成的“三驾马车”,可全面覆盖从十亿级到千亿级模型的训练与推理需求,为各行业AI创新提供一体化支撑。其中,海光DCU具备自主研发的开发工具套件DTK,是目前国内最为完备的生态之一,减少了应用迁移难度。完善的统一底层硬件驱动平台,能够适配不同API接口和编译器,并支持常见的函数库,在百度、阿里等头部互联网厂商得到认证,并推出联合方案,打造全国产软硬件一体全栈AI基础设施。 # 3、摩尔线程 公司拥有完整GPU产品矩阵,覆盖企业级到消费级市场。公司主要从事GPU及相关产品的研发、设计和销售。自2020年成立以来,公司以自主研发的全功能GPU为核心,致力于为AI、数字孪生、科学计算等高性能计算领域提供计算加速平台。公司主要产品包括AI智算产品、专业图形加速产品、桌面级图形加速产品、智能SoC类产品。2025年前三季度,公司营业收入为7.85亿,同比增长 $181.99\%$ ,成长性显著。 公司自主研发MUSA框架,多下游应用领域全面覆盖。基于MUSA统一架构技术,公司在基础软件层面同时提供了AI计算、图形渲染和科学计算所需的基础软件技术。在AI计算领域,支持PyTorch、PaddlePaddle等国内外主流AI应用开发框架,以及Megatron、FlagScale等大模型分布式训练框架;在图形渲染领域,支持DirectX、OpenGL、OpenGL ES和Vulkan等主流图形应用开发技术,为视频游戏、数字孪生、虚拟现实、工业设计和地理信息系统等行业应用提供坚实基础;在科学计算领域,支持MUSA通用计算编程,可广泛应用于计算物理、信号处理、生物医药等科学计算领域。 # 4、沐曦股份 公司坚持全栈式GPU产品开发。公司致力于自主研发全栈高性能GPU芯片及计算平台,主营业务是研发、设计和销售应用于人工智能训练和推理、通用计算与图形渲染领域的全栈GPU产品,并围绕GPU芯片提供配套的软件栈与计算平台。公司深度积累了GPU IP(包括指令集、微架构等)、GPU SoC、高速互连、GPU软件等核心技术。GPU产品基于自主研发的GPU IP与统一的GPU计算和渲染架构,在通用性、单卡性能、集群性能及稳定性、生态兼容与迁移效率等方面具备较强的核心竞争力,产品综合性能已处于国内领先水平。围绕高能效、高通用的GPU产品,公司打造了自主开放、高度兼容国际主流GPU生态(CUDA)的软件生态体系,具备易用性和可扩展性。 公司加强产业链合作,GPU产品已实现出货。公司已与整机服务器、操作系统、运维管理平台、主流AI框架、主流大模型等上下游生态广泛适配,通过芯片层、框架层、模型层的深度协同优化,为头部大模型分布式推理提供千卡高性能国产算力,助力“国产算力+大模型产业”实现从技术突破到商业化落地的跨越式发展。凭借突出的产品性能和稳定的供应能力,截至2025年10月,公司GPU产品累计销量超过25,000颗。公司深度构建“1+6+X”生态与商业布局,基础算力底座方面,公司产品相继应用部署于10余个智算集群,算力网络覆盖国家人工智能公共算力平台、运营商智算平台和商业化智算中心,区域横跨北京、上海、杭州、长沙、中国香港等地区,并逐渐向更多区域延伸。公司GPU产品深度赋能众多行业应用场景,已率先布局教科研、金融、交通、能源、医疗健康、大文娱等行业,产品赋能真实应用场景的竞争力和交付能力得到充分验证。 # 5、中芯国际 高产能利用率叠加产品组合改善,Q3收入与毛利增长超预期。25年以来AI市场需求强劲,各类终端需求温和增长或回稳,公司延续高景气运行节奏,产能利用率持续提升至 $95.8\%$ (环比 $+3.3\mathrm{pct}$ ),产线整体供不应求,季度末月产能迈入百万片级别,折合8英寸标准晶圆达到102.3万片,正式迈入百万片级别。公司积极配合客户备货与节点切换节奏,Q3销售片数环比增长 $4.6\%$ 至249.9万片(折合8英寸)。受益于制程复杂度较高产品占比提升,晶圆ASP环比提升 $3.8\%$ ,量价共振推动公司Q3实现营业收入171.62亿元,环比增长 $6.95\%$ 、同比增长 $9.95\%$ 。毛利率改善至 $25.49\%$ ,环比 $+4.79\mathrm{pct}$ ,同比 $+1.57\mathrm{pct}$ ,盈利能力随产品组合优化保持修复趋势。 消费电子需求走强,存储大周期+国产替代共促明年扩产势能。分下游看,公司2025Q3收入中智能手机/电脑与平板/消费电子/互联与可穿戴/工业与汽车占比分别为 $21.5\% / 15.2\% / 43.4\% / 8.0\% / 11.9\%$ 。其中消费电子环比增长 $15\%$ ,主要来自家用电器等多类电子产品供应链需求旺盛,国内厂商加速获得海外份额,公司长期合作客户在产业链中获取更多出货机会。展望明年,从代工及存储行业视角看,公司判断产能扩充节奏仍具支撑;存储器处于大周期供不应求阶段,量价缺口仍较为明显、价格维持稳健。逻辑电路领域中,模拟、MCU及消费类标准逻辑等品类的国产客户替代速度持续加快,且已逐步进入部分海外客户供应链,需求延续性较强。 公司作为中国大陆地区代工龙头,持续完善特色工艺平台巩固竞争优势。晶圆代工环节的战略属性愈发凸显,公司依托长期客户合作积累形成的客制化平台工艺与差异化能力,竞争力持续增强。在特色工艺平台方面,1)逻辑工艺方面,超低功耗28纳米进入量产阶段,在功耗控制与产品质量上具备更高竞争力。2)CIS与ISP工艺迭代,进一步提升感官能力、画面质量与信噪比。3)光学与嵌入式存储平台亦同步拓展,覆盖更广波段并延伸至车规与工业MCU等更高可靠性需求的领域。4)特色存储方面,NORFlash与NANDFlash工艺向高密度、小尺寸、低功耗方向演进,提升整体可靠性表现。5)面向汽车电子增长趋势,公司布局车规级传感器、BCD、MCU、存储与显示等多条工艺平台,通过平台化能力为客户提供覆盖更广应用的系统级解决方案。随着产能拓展持续落地,公司作为中国大陆地区最先进的晶圆代工厂,特色工艺宽度与深度不断增强,长期发展动力充足。 # 6、华虹公司/华虹半导体 2025Q3量价共振兑现,公司收入与盈利能力环比双升。终端需求持续回暖,公司晶圆出货增长叠加ASP水平提升,2025Q3收入环比 $+12.2\%$ 至6.35亿美元,高于前期指引中值,毛利率环比 $+2.6\mathrm{pct}$ 至 $13.5\%$ ,高于前期指引上沿。分下游看,公司2025Q3消费电子/工业与汽车/通讯/计算占比分别为 $64.1\% / 21.7\% / 12.6\% / 1.6\%$ 。公司产能释放、提价及产品结构调整将持续,预计2025Q4收入 $6.5\sim 6.6$ 亿美元( $\mathrm{YoY} + 20.6\% \sim 22.4\%$ , $\mathrm{QoQ} + 2.3\% \sim 3.9\%$ ),预计毛利率在 $12\% \sim 14\%$ 之间(港股指引)。 技术节点切换与产能释放将共同形成结构性α,新增放量具备超越行业周期的弹性。2025Q3公司整体产能利用率为 $109.5\%$ (同比 $+4.2\mathrm{pct}$ ,环比 $+1.2\mathrm{pct}$ ),8寸产能已处于满载状态;12寸九厂一期仍处于持续爬坡阶段,将在明年继续贡献增量供给,使公司在需求偏紧环境下具有更大的产能配置弹性,可优先排产毛利水平更高的产品,从结构端提升盈利质量。2026年 $40\mathrm{nm}$ 工艺平台有望进入量产窗口,技术节点切换带来的单片价值提升将与新增产能释放叠加,有望构成区别于行业周期的独立增长来源。 华力微收购流程按计划推进,强化工艺布局与产能规模。8月31日公司公告拟收购上海华力微 $97.4988\%$ 股权,华力旗下8寸五厂与12寸六厂产线可与公司现有平台互补,收购完成后公司将同时具备更大规模的12寸产能与更完整的制程覆盖。标的当前已稳定盈利,折旧压力已基本释放,预计收购将带来直接的收入和利润增量。双方将在工艺优化、良率提升及器件结构创新等方面协同明显,将加速技术迭代并巩固公司在逻辑与特色工艺领域的竞争力。 # 五、风险提示 # 1、下游需求不及预期 GPU芯片行业市场需求与宏观经济环境及下游应用领域的景气程度高度相关。国内AI、云计算等GPU核心应用市场的增速若因政策调整、技术落地不及预期或资本投入减少而放缓,将直接导致行业需求波动。 # 2、国产替代进展不及预期 国内GPU供应商的产品与英伟达仍存在一定差距,虽然目前正处于加速追赶期,但若产品验证和导入进展不及预期,可能会导致相关公司业绩不及预期。 # 3、代工供应风险 国内GPU厂商的晶圆代工仍部分依赖于海外供应商,鉴于国际形势的持续变化和不可预测性,若美国或其他国家进一步扩大贸易限制政策或出台新的制裁措施,可能会对相关公司的经营情况产生影响。 # 电子组团队介绍 # 副所长、前沿科技研究中心负责人:耿琛 美国新墨西哥大学计算机硕士。曾任新加坡国立大计算机学院研究员,中投证券、中泰证券研究所电子分析师。2019年带领团队获得新财富电子行业第五名,2016年新财富电子行业第五名团队核心成员,2017年加入华创证券研究所。 # 联席首席研究员:岳阳 上海交通大学硕士。2019年加入华创证券研究所。 # 资深分析师:熊翊宇 复旦大学金融学硕士,3年买方研究经验,曾任西南证券电子行业研究员,2020年加入华创证券研究所。 # 高级分析师:吴鑫 复旦大学资产评估硕士,1年买方研究经验。2022年加入华创证券研究所。 # 高级分析师:高远 西南财经大学硕士。2022年加入华创证券研究所。 # 高级分析师:姚德昌 同济大学硕士。2021年加入华创证券研究所。 # 分析师:张文瑶 哈尔滨工业大学硕士。2023年加入华创证券研究所。 # 助理研究员:蔡坤 香港浸会大学硕士。2023年加入华创证券研究所。 # 助理研究员:卢依雯 北京大学金融硕士。2024年加入华创证券研究所。 # 助理研究员:张雅轩 美国康奈尔大学硕士。2024年加入华创证券研究所。 # 研究员:董邦宜 北京交通大学计算机硕士,3年AI算法开发经验,曾任开源证券电子行业研究员。2024年加入华创证券研究所。 华创证券机构销售通讯录 <table><tr><td>地区</td><td>姓名</td><td>职务</td><td>办公电话</td><td>企业邮箱</td></tr><tr><td rowspan="10">北京机构销售部</td><td>张昱洁</td><td>副总经理、北京机构销售总监</td><td>010-63214682</td><td>zhangyujie@hcyjs.com</td></tr><tr><td>张菲菲</td><td>北京机构副总监</td><td>010-63214682</td><td>zhangfeifei@hcyjs.com</td></tr><tr><td>张婷</td><td>北京机构销售副总监</td><td></td><td>zhangting3@hcyjs.com</td></tr><tr><td>刘懿</td><td>副总监</td><td>010-63214682</td><td>liuyi@hcyjs.com</td></tr><tr><td>侯春钰</td><td>资深销售经理</td><td>010-63214682</td><td>houchunyu@hcyjs.com</td></tr><tr><td>顾翎蓝</td><td>资深销售经理</td><td>010-63214682</td><td>gulinglan@hcyjs.com</td></tr><tr><td>刘颖</td><td>资深销售经理</td><td>010-66500821</td><td>liuying5@hcyjs.com</td></tr><tr><td>阎星宇</td><td>销售经理</td><td></td><td>yanxingyu@hcyjs.com</td></tr><tr><td>车一哲</td><td>销售经理</td><td></td><td>cheyizhe@hcyjs.com</td></tr><tr><td>吴昱颖</td><td>销售经理</td><td></td><td>wuyuying@hcyjs.com</td></tr><tr><td rowspan="9">深圳机构销售部</td><td>张娟</td><td>副总经理、深圳机构销售总监</td><td>0755-82828570</td><td>zhangjuan@hcyjs.com</td></tr><tr><td>张嘉慧</td><td>高级销售经理</td><td>0755-82756804</td><td>zhangjiahui1@hcyjs.com</td></tr><tr><td>王春丽</td><td>高级销售经理</td><td>0755-82871425</td><td>wangchunli@hcyjs.com</td></tr><tr><td>王越</td><td>高级销售经理</td><td></td><td>wangyue5@hcyjs.com</td></tr><tr><td>汪丽燕</td><td>销售经理</td><td>0755-83715428</td><td>wangliyan@hcyjs.com</td></tr><tr><td>温雅迪</td><td>销售经理</td><td></td><td>wenyadi@hcyjs.com</td></tr><tr><td>胡丁琳</td><td>销售助理</td><td></td><td>hudinglin@hcyjs.com</td></tr><tr><td>付雅琦</td><td>销售助理</td><td></td><td>fuyaqi@hcyjs.com</td></tr><tr><td>许馨匀</td><td>销售助理</td><td></td><td>xuxinyun@hcyjs.com</td></tr><tr><td rowspan="13">上海机构销售部</td><td>许彩霞</td><td>总经理助理、上海机构销售总监</td><td>021-20572536</td><td>xucaixia@hcyjs.com</td></tr><tr><td>祁继春</td><td>上海机构销售副总监</td><td></td><td>qijichun@hcyjs.com</td></tr><tr><td>黄畅</td><td>上海机构销售副总监</td><td>021-20572257-2552</td><td>huangchang@hcyjs.com</td></tr><tr><td>吴俊</td><td>资深销售经理</td><td>021-20572506</td><td>wujunl@hcyjs.com</td></tr><tr><td>张佳妮</td><td>资深销售经理</td><td>021-20572585</td><td>zhangjiani@hcyjs.com</td></tr><tr><td>郭静怡</td><td>高级销售经理</td><td></td><td>guojingyi@hcyjs.com</td></tr><tr><td>蒋瑜</td><td>高级销售经理</td><td>021-20572509</td><td>jiangyu@hcyjs.com</td></tr><tr><td>吴菲阳</td><td>高级销售经理</td><td></td><td>wufeiyang@hcyjs.com</td></tr><tr><td>朱涨雨</td><td>高级销售经理</td><td>021-20572573</td><td>zhuzhangyu@hcyjs.com</td></tr><tr><td>李凯月</td><td>高级销售经理</td><td></td><td>likaiyue@hcyjs.com</td></tr><tr><td>张豫蜀</td><td>销售经理</td><td>15301633144</td><td>zhangyushu@hcyjs.com</td></tr><tr><td>张玉恒</td><td>销售经理</td><td></td><td>zhangyuheng@hcyjs.com</td></tr><tr><td>章依若</td><td>销售经理</td><td></td><td>zhangyiruo@hcyjs.com</td></tr><tr><td rowspan="2">广州机构销售部</td><td>段佳音</td><td>广州机构销售总监</td><td>0755-82756805</td><td>duanjiayin@hcyjs.com</td></tr><tr><td>王世韬</td><td>销售经理</td><td></td><td>wangshitao1@hcyjs.com</td></tr><tr><td rowspan="6">私募销售组</td><td>潘亚琪</td><td>机构服务部总经理助理</td><td>021-20572559</td><td>panyaqi@hcyjs.com</td></tr><tr><td>汪子阳</td><td>副总监</td><td>021-20572559</td><td>wangziyang@hcyjs.com</td></tr><tr><td>江赛专</td><td>副总监</td><td>0755-82756805</td><td>jiangsaizhuan@hcyjs.com</td></tr><tr><td>汪戈</td><td>高级销售经理</td><td>021-20572559</td><td>wangge@hcyjs.com</td></tr><tr><td>宋丹琦</td><td>销售经理</td><td>021-25072549</td><td>songdanyu@hcyjs.com</td></tr><tr><td>赵毅</td><td>销售经理</td><td></td><td>zhaoyi@hcyjs.com</td></tr></table> # 华创行业公司投资评级体系 # 基准指数说明: A股市场基准为沪深300指数,香港市场基准为恒生指数,美国市场基准为标普500/纳斯达克指数。 # 公司投资评级说明: 强推:预期未来6个月内超越基准指数 $20\%$ 以上; 推荐:预期未来6个月内超越基准指数 $10\% -20\%$ 中性:预期未来6个月内相对基准指数变动幅度在 $-10\% - 10\%$ 之间; 回避:预期未来6个月内相对基准指数跌幅在 $10\% -20\%$ 之间。 # 行业投资评级说明: 推荐:预期未来3-6个月内该行业指数涨幅超过基准指数 $5\%$ 以上; 中性:预期未来3-6个月内该行业指数变动幅度相对基准指数 $-5\% - 5\%$ 回避:预期未来3-6个月内该行业指数跌幅超过基准指数 $5\%$ 以上。 # 分析师声明 每位负责撰写本研究报告全部或部分内容的分析师在此作以下声明: 分析师在本报告中对所提及的证券或发行人发表的任何建议和观点均准确地反映了其个人对该证券或发行人的看法和判断;分析师对任何其他券商发布的所有可能存在雷同的研究报告不负有任何直接或者间接的可能责任。 # 免责声明 本报告仅供华创证券有限责任公司(以下简称“本公司”)的客户使用。本公司不会因接收人收到本报告而视其为客户。 本报告所载资料的来源被认为是可靠的,但本公司不保证其准确性或完整性。本报告所载的资料、意见及推测仅反映本公司于发布本报告当日的判断。在不同时期,本公司可发出与本报告所载资料、意见及推测不一致的报告。本公司在知晓范围内履行披露义务。 报告中的内容和意见仅供参考,并不构成本公司对具体证券买卖的出价或询价。本报告所载信息不构成对所涉及证券的个人投资建议,也未考虑到个别客户特殊的投资目标、财务状况或需求。客户应考虑本报告中的任何意见或建议是否符合其特定状况,自主作出投资决策并自行承担投资风险,任何形式的分享证券投资收益或者分担证券投资损失的书面或口头承诺均为无效。本报告中提及的投资价格和价值以及这些投资带来的预期收入可能会波动。 本报告版权仅为本公司所有,本公司对本报告保留一切权利。未经本公司事先书面许可,任何机构和个人不得以任何形式翻版、复制、发表、转发或引用本报告的任何部分。如征得本公司许可进行引用、刊发的,需在允许的范围内使用,并注明出处为“华创证券研究”,且不得对本报告进行任何有悖原意的引用、删节和修改。 证券市场是一个风险无时不在的市场,请您务必对盈亏风险有清醒的认识,认真考虑是否进行证券交易。市场有风险,投资需谨慎。 华创证券研究所 <table><tr><td>北京总部</td><td>广深分部</td><td>上海分部</td></tr><tr><td>地址:北京市西城区锦什坊街26号恒奥中心C座3A</td><td>地址:深圳市福田区香梅路1061号中投国际商务中心A座19楼</td><td>地址:上海市浦东新区花园石桥路33号花旗大厦12层</td></tr><tr><td>邮编:100033</td><td>邮编:518034</td><td>邮编:200120</td></tr><tr><td>传真:010-66500801</td><td>传真:0755-82027731</td><td>传真:021-20572500</td></tr><tr><td>会议室:010-66500900</td><td>会议室:0755-82828562</td><td>会议室:021-20572522</td></tr></table>