> **来源:[研报客](https://pc.yanbaoke.cn)** # AI泛化模式到来 # 计算机策略报告 计算机团队 证券分析师:刘泽晶 SAC NO:S1120520020002 孟令儒奇 SAC NO:S1120524060001 李静远 SAC NO: S1120525090002 2026年1月1日 # 核心观点 # 从NV到Google,AI需求升级不断 谷歌Gemini3.0惊艳亮相后,AI迎来新范式,TPU组成的算力集群强化了AI生态,从而带来更多新需求。OCS光交换机成为新增量,新型光互连技术加速迭代,液冷26年正式从选配成为标配。NV芯随着下一代芯片RUBIN的推出,正交背板和电源等新增需求明确显现,继续推动产业链技术迭代升级。同时,摩尔、沐曦等国产算力芯片厂上市,意味着国产AI产业加速追赶海外的时刻到来。 # 大模型竞争从产业到资本全面展开 25年末,谷歌、阿里为代表的传统互联网厂商的大模型全面赶超openAI和deepseek等新兴大模型厂并形成反攻之势,标志着大模型的竞争达到新的高度。26年初智谱、Minimax即将登陆港股,模型厂商已经正式进入资本市场,我们预计26年AI模型与应用将百花齐放。 # AI正从基础能力竞争到泛应用化铺开 26年,我们预计随着模型能力的进一步跃升,AI在产业的落地有望井喷。机器人将从机械能力的比拼到大脑、控制能力的竞赛,智能驾驶从1到N的时刻越来越临近。随着26年SpaceX的上市,太空算力有望成为新一轮中美科技的制高点。 受益标的:谷歌相关产业链:(光库科技、赛微电子、腾景科技、英维克),英伟达相关产业链:(胜宏科技、沪电股份、中际旭创、天孚通信、新易盛、英维克、中恒电气、麦格米特、工业富联);国产算力:(寒武纪、海光信息、中科曙光、华丰科技、神州数码、烽火通信、华勤技术);AI应用:(合合信息、金山办公、福昕软件、万兴科技、美图公司、鼎捷数智、汉得信息);机器人:(均胜电子、新泉股份、恒勃股份、汉威科技、福莱新材、品茗科技);智驾:(小马智行、文远知行、万马科技);商业航天:(西部材料、再升科技、超捷股份、通宇通讯、迈为股份、钧达股份、信维通信、天银机电) # 目录 01 从NV到Google,AI需求升级不断 02 国产算力加速追赶 03 大模型产业步入新阶段 04 智领未来 05 受益标的与风险提示 # 01 从NV到Google,AI需求升级不断 Google强化AI生态 NV需求持续放量 # 1.1.1 谷歌引领全球大模型跃迁 > 多模态能力重构行业标准:从“处理”到“理解关联”的跨越Video-MMMU测试87.6%的得分意味着模型不仅能识别“球在滚动”,还能推断“因摩擦力导致减速”的物理规律。 > 月活数据持续高增:桑达尔·皮查伊在官方博客中回顾了 Gemini 过去两年的进展:AI Overviews 月活跃用户已达 20 亿,Gemini 应用月活突破 6.5 亿,此外有超过 $70\%$ 的云客户以及 1300 万开发者正在使用其生成式模型。 Gemini3.0使用剪影 Gemini3.0极速版性能 # 1.1.2 英伟达芯片迭代速度明显加快,产业趋势明确 > 英伟达芯片迭代速度明显加快:今年6月,英伟达披露未来三代数据中心半导体技术路线图,新GPU架构每年一更:2025年推出Blackwell Ultra GPU(8S HBM3e 12H);2026年推出Rubin GPU(8S HBM4);2027年推出Rubin Ultra GPU(12S HBM4),新一代基于Arm的Vera CPU,以及NVLink 6 Switch(3600GB/s)。 目前Blackwell产品已经全面投产:Grace Blackwell解决方案已全面投产,2025年以来向四大平台出货360万台Blackwell GPU,我们判断Rubin有望延续Blackwell的趋势。 英伟达芯片架构升级图 资料来源:芯东西,华西证券研究所 Blackwell System # 1.1.2 英伟达芯片迭代速度明显加快,产业趋势明确 > Rubin是英伟达下一阶段的战略重拳:推理速度将达50 petaflops(比Blackwell的20 petaflops高出一倍多),配备288 GB HBM4内存。基于Rubin的Vera Rubin NVL144机柜(72颗Grace CPU + 144颗Rubin GPU)将提供3.6 exaflops(FP4推理)和1.2 exaflops(FP8训练)的算力,是Blackwell Ultra NVL72的3.3倍。到2027年,Rubin Ultra NVL576将进一步提升至15 exaflops(FP4)和5 exaflops(FP8),性能是Blackwell Ultra NVL72的14倍。 此外,英伟达于今年9月推出Rubin CPX,是专为大模型上下文推理而生。 英伟达Vera Rubin架构图 英伟达Rubin Ultra架构图 # 1.1.3 谷歌TPU迭代加快,V8即将问世 > 2025年Colud Next大会上,谷歌隆重推出第七代Tpu:Ironwood 的问世,代表着 AI 发展及其底层基础架构演进的重大转变。Ironwood 的设计旨在从容应对复杂计算和通信需求,Ironwood 根据 AI 工作负载的需求提供两种规模配置:256 颗芯片配置和 9,216 颗芯片配置。 当扩展到每个Pod达9,216颗芯片时,总运算能力可达42.5百亿亿次浮点运算每秒(42.5Exaflops),是世界上最大的超级计算机ElCapitan的24倍以上。 Google TPU算力对比图 资料来源:Google 云官网,华西证券研究所 Google TPU运算总峰值对比图 # 1.1.3 谷歌TPU迭代加快,V8即将问世 性能:Ironwood 的性能功耗比是2024年推出的第6代TPU Trillium的2倍。 > 大幅增加高带宽内存(HBM)容量:Ironwood每颗芯片提供192GB容量,是Trillium的6倍。 > HBM 带宽大幅提升:单颗芯片可达7.2Tbps,是Trillium 的4.5倍。 增强芯片间互连(ICI)带宽:双向传输已提高1.2Tbps,是Trillium的1.5倍。 此外,我们判断谷歌有望明年发布V8产品,其产品迭代速度明显加快。 Google TPU算力对比图 Google Tpu的实物图 # 1.1.4 1.6T光模块持续推进,NPO打开Scale up全新增量 Npo全名近封装光学(NPO):是一种将光引擎与计算芯片在物理上靠近但不完全集成的技术方案。其核心特征是将光引擎从可插拔模块中解放出来,做成一个独立的光学小芯片,但不直接和计算芯片(如GPU、ASIC)封装在同一基板上。 NPO是可插拔光模块和CPO中的过渡方案:目前在英伟达GB200系列中Nvlink的铜缆仍有优势,但是随着未来GPU的数量增加(Rubin Ultra 576版本),功耗和传输速率的问题逐步加大,因此“先进铜退”成为可能,NPO打开Scale up全新增量。 # 1.1.4 谷歌OCS技术打开光器件想象空间 > OCS是(Optical Circuit Switching)是谷歌自研的光电路交换技术,直接在光域完成信号路由与交换,彻底摒弃传统的“光-电-光”转换过程。 $\succ$ 互联结构上采用3D拓扑模块:每个机架内的 $4 \times 4 \times 4$ Torus 模块通过 OCS 连接,形成 $16 \times 16 \times 16$ 的逻辑架构,支持灵活任务分割(如 $8 \times 8 \times 4$ 或 $16 \times 8 \times 16$ )。 > 低延时、低成本、高稳定性:谷歌的ICl网络成本低于大多数可切换式扩展网络。TPU之间的直接链路意味着对于物理上彼此靠近或重新配置为直接连接的TPU来说,可以实现更低的延迟。 谷歌TPU的拓扑结构 0cs中不发生光电转换 # 1.1.5 正交背板有望成为PCB新增量 正交背板是英伟达为 Rubin Ultra NVL576 架构设计的革命性 PCB 互联方案,本质是一块多的超大尺寸 PCB 板,与交换网板呈 $90^{\circ}$ 垂直连接,替代传统铜缆系统。 PCB板背板取代了铜线背板,作为GPU与罐内NVSwitches之间的放大连接。这一转变主要是由于在较小的占地内安装电缆变得更加困难。 其优势在于信号路径的变短、散热效率的提升、空间利用率的提升,同时PCB相关的树脂材料、Q布等环节有望受益。 谷歌TPU的拓扑结构 资料来源:Semianalysis,华西证券研究所 # 1.1.6 液冷已从选配成为标配,相关公司或已产生实质订单 > AI高速互联时代,芯片算力和芯片的功耗成明显的正相关:温度升高会引起电容、电阻以及金属线等材料的热膨胀,进而导致它们的机械变形和结构破坏,最终影响芯片的正常运行。根据我们判断,风冷的极限散热为800W,目前液冷已经从选配成为标配环节。 从英伟达GB系列后,其TDP持续提高,此外谷歌的TPU V7 TDP系数已超风冷极限,我们判断,液冷赛道即将开始放量。 英伟达相关产品的技术参数 <table><tr><td></td><td>2022</td><td>2023</td><td>2024</td><td colspan="2">2025</td><td>2026</td><td>2027</td></tr><tr><td colspan="8">Chip and Package Level</td></tr><tr><td></td><td colspan="2">Hopper</td><td colspan="3">Blackwell</td><td colspan="2">Rubin</td></tr><tr><td>Accelerator</td><td>H100 (SXM)</td><td>H200</td><td>B200/GB200</td><td>GB300 (Ultra)</td><td>B300 (single die, B300A)</td><td>VR200</td><td>VR300 (Ultra)</td></tr><tr><td>GPU TDP (W)</td><td>700</td><td>700</td><td>700/1200</td><td>1,400</td><td>600</td><td>1,800</td><td>3,600</td></tr><tr><td>Foundry Node</td><td colspan="2">4N</td><td colspan="3">4NP</td><td colspan="2">N3P (3NP)</td></tr><tr><td>Logic Die Configuration</td><td colspan="2">1 x Reticle Sized GPU</td><td colspan="3">2 x Reticle Sized GPU</td><td>2 x Reticle Sized GPU, 2x I/O chiplet</td><td>4 x Reticle Sized GPU, 2x I/O chiplet</td></tr><tr><td>FP4 PFLOPs - Dense (per Package)</td><td colspan="2">4*</td><td>10</td><td>15</td><td>4.6</td><td>50</td><td>100</td></tr><tr><td>HBM</td><td>80GB HBM3</td><td>141GB HBM3E</td><td>192GB HBM3E</td><td>288GB HBM3E</td><td>144GB HBM3E</td><td>288GB HBM4</td><td>1024GB HBM4E</td></tr><tr><td>HBM Stacks</td><td>5</td><td>6</td><td colspan="2">8</td><td>4</td><td>8</td><td>16</td></tr><tr><td>HBM Bandwidth</td><td>3.35TB/s</td><td>4.8TB/s</td><td colspan="2">8TB/s</td><td>4TB/s</td><td>13TB/s</td><td>32TB/s</td></tr><tr><td>Packaging</td><td colspan="2">CoWoS-S</td><td colspan="3">CoWoS-L</td><td colspan="2">CoWoS-L</td></tr><tr><td>SerDes speed (Gb/s uni-di)</td><td colspan="2">112G</td><td colspan="3">224G</td><td>224G</td><td>448G</td></tr><tr><td>Nvidia CPU</td><td colspan="5">Grace</td><td colspan="2">Vera</td></tr></table> 资料来源:Semianalysis,华西证券研究所 # 1.1.6 液冷已从选配成为标配,相关公司或已产生实质订单 我们判断液冷相关产品主动权目前掌握在Csp厂商,而非Odm厂商:目前为了保证自家供应链的稳定性及满足自身持续强化的AI需求,绝大部分液冷产业链会由Csp厂商决定,而中国大陆厂商的扩产速度和意愿有望在产业趋势中高度受益。 二次侧产品包括:冷板组件、快速接头QDC、回歧管RCM、环路工艺冷媒供回歧管LCM、冷量分配单元CDU。一次侧产品包括:干冷器、冷却塔和制冷机组。 英维克Coolinside全链条解决方案 英维克液冷算力舱产品 # 1.1.7 AI电力板块持续扩张,相关公司从零至一 > AI高速互联时代,芯片算力和芯片的功耗成明显的正相关:因此,机柜内侧PSU有望持续“膨胀”,配电端目前依旧存在低效转换的情况,整个电力链中重复的AC/DC转换不节能,并会增加故障点。 > 800V HVDC有望为电源带来变革:NVIDIA 800V HVDC架构可更大限度地减少能源转换。在数据中心周边将13.8kV AC网电源直接转换为800V HVDC,消除了大多数中间转换步骤。这种简化的方法可更大限度地减少能源损失,这些损失通常发生在多个AC/DC和DC/DC转换期间。效率方面有望提高。 IT机架的800VHVDC配电以及GPU的12VDC/DC转换 # 1.1.7 AI电力板块持续扩张,相关公司从零至一 > SST技术作为具备前瞻性的设施配电技术正加以研发:为满足AI工厂日益增长的电力需求,NVIDIA正在探索中压整流器的应用。 固态变压器系统集成了中压交流输入单元、电力整流模块和直流输出配电部分。其紧凑且高容量的设计支持计算机架密度提升,直流电力设备具备可扩展性且能大幅节省空间。然而此方式仍处于联合开发中。 AI电力未来趋势示意图 # 02 国产算力加速追赶 字节、阿里引领大模型算力需求爆发寒武纪、华为推动国产AI芯片自主化摩尔线程、沐曦打造全栈GPU技术体系 # 2.1.1 字节:从C端爆款到B端赋能,AI算力同比增长超10倍 字节跳动的AI业务主要服务于C端用户和B端企业两大方向。 > C端用户方面,字节旗下应用声量领跑市场,用户使用量的上升趋势带来AI推理层面算力需求增加。据QuestMobile数据,截至2025年8月,豆包App月活用户规模超过1.57亿,其主要竞争对手DeepSeek月活约为1.43亿,豆包App成为国内移动端用户量最大的AI聊天助手。此外,字节联合中兴通讯,于12月1日推出搭载豆包手机助手技术预览版的工程样本努比亚M153。AI手机推出预示大模型从“偶尔调用”变成“系统常驻”,直接驱动云端算力需求的爆发。 B端企业方面,火山引擎为企业用户提供性价比极高的模型使用方案,进而促使火山引擎token快速消耗。为了降低企业使用门槛,火山引擎发布了豆包助手API和AI节省计划。企业用户可以通过API接入字节自研的大模型,还可以直接在产品中构建自定义豆包。 全媒介之星”中国TOP20AI应用榜单节选 豆包大模型日均使用量条形图 >在C端和B端需求的催化下,字节算力需求激增。在今年的火山引擎冬季FORCE原动力大会上,火山引擎总裁谭待披露,截至今年12月,豆包大模型日均tokens使用量已突破50万亿,居中国第一、全球第三。该数据在去年12月才4万亿,比去年同期增长超过10倍。 # 2.1.2 加大算力投入,助力模型升级 # 字节算力投资计划明确 > 模型加速迭代催化训练层面算力需求。12月18日,在2025年FORCE原动力大会上,字节发布了豆包大模型1.8版本及音视频创作模型Seedance 1.5 pro,全面升级多模态Agent能力。 > 据观点网讯,12月13日,字节跳动在内部沟通会上确认,2026年集团资本支出总额预计为230亿美元,其中约850亿元人民币将专项用于人工智能处理器采购与相关基础设施建设,以满足旗下大模型训练级推理算力需求。 1. 豆包大模型1.8:火山引擎最新发布的多模态Agent模型,专为复杂任务执行优化。 2. Seedance 1.5 Pro:豆包视频生成模型的全新版本,实现影视级音视频创作突破。 # 豆包大模型家族全景图 # 2.1.3 阿里加码AI基建,助力全栈升级 > 阿里巴巴正通过史无前例的AI基建投入,成为国产算力需求释放的最强引擎。在2025年9月24日举办的云栖大会上,阿里巴巴集团CEO吴泳铭宣布阿里云重磅升级全栈AI体系,实现从AI大模型到AI基础设施的技术更新。面向新一轮智能革命,阿里云将全力打造成为全栈人工智能服务商。他不仅披露集团资本开支会在3800亿元基础上,增加更多的算力投入,同时表示“AI时代,ASI只是开始,大模型将是下一代操作系统,超级AI云是下一代计算机”。超级人工智能(ASI)将经历四个阶段:智能涌现(学习人)、自主行动(辅助人)、自我迭代(超越人)和ASI。 > 我们判断,阿里此番千亿级加码AI基建的核心意图,绝非单纯的算力规模扩张,而是瞄准“超级AI云+开源大模型”的双核心,意图抢占全球AI时代的“基础设施定义权”与“生态规则制定权”。 2025年云栖大会 超级人工智能(ASI)四阶段 # 2.1.4 阿里多项重磅技术更新,Qwen3-Max全新亮相 > 在2025年举办的云栖大会上,阿里巴巴正式推出迄今最大、参数量突破1万亿的Qwen3-Max旗舰级大语言模型。分为指令(Instruct)和推理(Thinking)两大版本。在指令模式下,SWE-Bench(大语言模型处理现实世界软件问题的权威评估基准)对该模型的评分为69.6分,与部份顶尖闭源模型不相伯仲;在Tau2-Bench(对话智能体的评估基准)的评测中亦表现卓越,展现非凡的工具使用能力,此乃构建行动型智能体不可或缺的基础能力。 > 下一代基础模型架构Qwen3-Next及系列模型也于当天发布,性能即可媲美千问3旗舰版235B模型。阿里云百炼也迎来重磅升级。阿里云发布全新Agent开发框架ModelStudio-ADK,帮助企业高效开发具备自主决策、多轮反思和循环执行能力的Agent。在服务器层面,阿里云发布全新一代磐久128超节点AI服务器,由阿里云自主研发设计,可高效支持多种AI芯片,单柜支持128个AI计算芯片,密度刷新业界纪录。 Qwen3-Max旗舰级大语言模型测试效果图 Qwen3-Max在各项基准测试中展现出色效能 # 2.1.5 国内大模型全景 中国大模型领域的市场参与者可划分为以下五类主体:以全栈布局构建护城河的互联网/科技巨头、以技术锐度著称的专注于模型的新贵、以行业纵深创造价值的垂直领域深耕者、在转型中寻求突破的AI1.0转型者,以及作为创新源头的科研机构。 国内大模型市场参与者 <table><tr><td>市场主体</td><td>主要特点</td><td>典型企业</td></tr><tr><td>互联网/科技巨头</td><td>打造从芯片、框架、模型到应用的全栈式生态。有自有场景和流量,以云服务为出口,技术栈全面</td><td>阿里、百度、华为、科大讯飞、腾讯、字节</td></tr><tr><td>模型技术新贵</td><td>专注于大模型技术本身的突破,追求在通用能力或特定技术点上达到世界领先水平</td><td>DeepSeek、零一科技、Minimax、月之暗面、智谱AI</td></tr><tr><td>垂直领域深耕者</td><td>将大模型能力与特定行业知识和数据相结合,解决行业核心问题。以解决方案为导向,深厚的行业积累、数据和客户资源是其护城河</td><td>东方财富、金山办公、医渡科技</td></tr><tr><td>AI 1.0转型者</td><td>原本在计算机视觉、语音识别等时代领先的AI公司,全力向大模型赛道转型</td><td>旷视科技、商汤科技、云从科技</td></tr><tr><td>科研机构</td><td>它们虽非企业,但通过发布开源模型,是技术和人才的重要源泉</td><td>北京大学、北京智源研究院、中国科学院</td></tr></table> 国内大厂模型对比 <table><tr><td>模型</td><td>参数量与架构</td></tr><tr><td>字节豆包</td><td>豆包1.5模型采用MoE架构,总参数量为200B,激活参数量为20B</td></tr><tr><td>阿里通义千问</td><td>千问3模型采用MoE架构,总参数量为235B,激活参数量为22B</td></tr><tr><td>腾讯混元大模型</td><td>混元2.0模型采用MoE架构,总参数量为406B,激活参数量为32B</td></tr><tr><td>百度文心一言</td><td>文心5.0采用超稀疏混合专家架构,总参数规模超过2.4万亿</td></tr></table> # 2.2.1 寒武纪:亮剑英伟达,打造国产AI算力全栈方案 # 寒武纪核心产品 # 终端智能处理器 寒武纪1A、寒武纪1H、寒武纪1M系列 # 云端智能加速卡 思元100、思元270、思元290、思元370、思元590 # 边缘智能加速卡 思元220 寒武纪思元590与英伟达A100性能对比 <table><tr><td>维度</td><td>思元590</td><td>英伟达A100</td></tr><tr><td>F16算力</td><td>256TFLOPS</td><td>312TFLOPS</td></tr><tr><td>INT8算力</td><td>512T0PS</td><td>624T0PS</td></tr></table> # 亮剑英伟达,打造国产“CUDA” > 寒武纪采取了全面兼容主流开源框架的策略。不仅支持PyTorch 2.1到PyTorch 2.8的全部社区版本,还建立了快速跟进社区版本的长效机制。在开发工具层面,Cambricon NeuWare提供了完整的软件栈:CNPerf-GUI适配多平台,支持超大日志文件的快速加载及流畅操作;新增程序正确性分析工具CNSantizer,可自动完成多核间竞争访问检测。BANG C语言则是寒武纪BANG异构并行编程模型的编程语言,可以高效编写在MLU上运行的并行程序。寒武纪还提供GPU Migration一键迁移工具,帮助用户近乎零成本将模型从GPU迁移到MLU。 云边端一体、训推一体开发和部署流程 # 2.2.2 华为:瞄准高算力、高带宽和大规模互联的芯片能力 8月23日,华为正式发布了达芬奇架构的又一款自研AI处理器——Ascend 910(昇腾910)。根据华为官方公布的技术规格,Ascend 910基于达芬奇核心架构,采用7nm工艺制程,半精度达256TFOPs,功耗为350W,运算密度超越了英伟达 Tesla V100和谷歌TPU v3。 华为昇腾910示意图 >从最早的昇腾910开始,昇腾芯片的设计逻辑始终围绕着高算力、高带宽和大规模互联能力。 > 硬件芯片层面:在计算单元设计上,昇腾芯片采用了矩阵计算加速单元(Cube Unit)作为核心模块。在存储与带宽上,昇腾芯片紧密结合HBM高带宽存储技术。在芯片互联上,昇腾系列逐步形成了自己的高带宽低延迟互联架构。 > 软件生态层面:华为在今年8月宣布将其对标CUDA生态的CANN和Mind工具链全面开源开放。 昇腾芯片迭代计划清晰。2025华为全联接大会上首次对外公布了昇腾AI芯片未来三年的产品迭代路线图,同时明确表示2026年一季度发布的新产品将采用华为自研HBM(高带宽内存)。 我们判断,华为昇腾的三年产品迭代只是一个起点,未来华为会在国产化的道路上越走越坚定,逐渐打破海外厂商AI芯片的技术桎梏。 昇腾AI芯片三年发展路线图 制图:腾讯科技|数据来源:华为全连接大会2025 # 2.3.1 摩尔线程:“护城河”优势成就国产GPU第一股 # > 摩尔线程的核心竞争力在于构建了多重难以复制的护城河。 1. 在技术路线上,摩尔线程选择了“全功能GPU”路线。 2. 自主研发的MUSA生态体系 3. 快的技术与产品迭代能力。摩尔线程保持每年推出一颗新芯片。 4. 成熟的“B+C”双端布局。 摩尔线程产品 > 在2025年12月20日举办的北京——摩尔线程首届MUSA开发者大会上系统展示了摩尔线程以自主MUSA统一架构为核心的全栈技术成果。 <table><tr><td>发布内容</td><td>核心详情</td></tr><tr><td>新架构“花港”亮相</td><td>全功能GPU架构“花港”,支持FP4到FP64的全精度计算,算力密度提升50%,效能提升10倍。</td></tr><tr><td>夸娥万卡”高效训练</td><td>发布夸娥万卡智算集群,展示了其支撑万亿参数模型训练的工程化能力与可靠性,在多项关键精度指标上达到国际主流水平</td></tr><tr><td>推理性能实现跨越</td><td>摩尔线程联合硅基流动,在DeepSeek R1 671B全量模型上实现性能突破,MTT S5000单卡Prefill吞吐突破4000 tokens/s、Decode吞吐突破1000 tokens/s。</td></tr><tr><td>超节点架构前瞻</td><td>分享面向下一代超大规模智算中心的MTT C256超节点架构,着眼高密硬件架构,实现极致智算性能。</td></tr><tr><td>全新个人智算平台</td><td>正式发布搭载智能SoC芯片“长江”的AI算力本MTT AIBOOK,赋能“摩尔学院”20万开发者与学习者。</td></tr><tr><td>图形进化与前沿探索</td><td>揭晓硬件级光线追踪加速与自研AI生成式渲染技术,具身智能、科学智能(AI4S)、AI for 6G等前沿领域的深度布局,进一步印证了全功能GPU技术路线的广度与面向未来的可扩展性。</td></tr></table> # 2.3.2 沐曦股份:全栈自研的高端突破策略 > 沐曦股份作为国产GPU领域的新锐力量,瞄准高性能通用GPU计算市场,通过自研核心IP、自主设计GPU架构和指令集,同步开发与硬件相配套的开源软件栈,构建起软硬协同的生态“护城河”。根据沐曦股份科创板首次公开发行股票的招股说明书,其主要产品覆盖人工智能计算、通用计算和图形渲染三大领域,在2022年至2025年6月内先后推出了用于智算推理的曦思N系列GPU、用于训推一体和通用计算的曦云C系列GPU,以及正在研发用于图形渲染的曦彩G系列GPU。 > 围绕高能效、高通用的GPU产品,沐曦股份打造了自主开放、高度兼容国际主流GPU生态(CUDA)的软件生态体系,具备易用性和可扩展性。具体来看,在2025年发布的MXMACA-3.3.0.X的简要技术报告中,可以看到MACA套件是面向沐曦股份曦云C系列、曦思N系列GPU研发的异构计算软件栈核心计算平台、引擎、运维工具和规范化操作范本,其承担着连接硬件算力单元与上层应用生态的核心纽带作用。 沐曦产品概况 <table><tr><td>产品类型</td><td>型号</td><td>产品特征</td><td>应用场景</td></tr><tr><td rowspan="2">训推一体GPU</td><td>曦云 C500系列</td><td rowspan="2">公司曦云C系列产品拥有多精度混合算力,内置大量运算核心,具有较强的并行计算能力和较高的能效比,适用于向量计算和矩阵计算等计算密集型应用,可广泛应用于智算训练与推理、通用计算、AI for Science 等场景</td><td rowspan="2">云端智算(训练一体)、通用计算、AI for Science 等</td></tr><tr><td>曦云 C5600系列</td></tr><tr><td rowspan="3">智算推理GPU</td><td>曦思 N100系列</td><td>公司曦思N100产品系面向传统人工智能场景,内置性能强劲的视频处理器和运算核心,可广泛应用于智慧城市、智慧交通、智慧教育、智能视频处理等场景</td><td>云端及边端推理、视频转码</td></tr><tr><td>曦思 N260系列</td><td rowspan="2">公司曦思N系列后续迭代产品系面向生成式人工智能场景,拥有多精度混合算力、大容量显存和较高的能效比,可广泛应用于大模型推理、生成式应用等场景</td><td rowspan="2">云端推理、一体机及工作站</td></tr><tr><td>曦思 N300系列</td></tr><tr><td>图形渲染GPU</td><td>曦彩 G100系列</td><td>公司曦彩G系列产品系面向图形处理场景,内置性能强大的图形处理器,可广泛应用于云游戏、数字孪生、云渲染、影视动画和专业制图等场景</td><td>云端及边端图形处理</td></tr></table> MACA套件的定位和作用 <table><tr><td>国产算力支撑应用蓬勃发展,赋能千行百业</td><td>行业应用层</td><td>金融</td><td>医疗</td><td>能源</td><td>数科研</td><td>交通</td><td>大文观</td><td>……</td></tr><tr><td rowspan="3">基于GPGPU通用易用的优势,快速支持更多更新的大模型</td><td rowspan="3">模型层</td><td>DeepGeikR1</td><td>Qwen</td><td>Wan</td><td>Kimi-K2</td><td>ChatGLM</td><td>文心大模型4.5</td><td>Propeo/Cloud</td></tr><tr><td rowspan="2">Step-2</td><td rowspan="2">InternL.M</td><td rowspan="2">Fin-R1</td><td rowspan="2">Memory3</td><td rowspan="2">Yi</td><td rowspan="2">Baichuan4</td><td>mx-exporter</td></tr><tr><td>mx-dicom</td></tr><tr><td rowspan="4">框架原生兼容,极速适配调优,加速大模型落地</td><td rowspan="4">基础软件层:大模型训练&处理加速平台和监管管理工具</td><td rowspan="2">Pytorch</td><td rowspan="2">TensorFlow</td><td>DeepSpeed</td><td>LLMAFactory</td><td>Colossal-AI</td><td>LMDeploy</td><td>mx-report</td></tr><tr><td>Megatron-LM</td><td>Diffusers</td><td>FlagScale</td><td>vLLM</td><td>mx-smi</td></tr><tr><td>MindSpore</td><td>PaddlePaddle</td><td>Transformers</td><td>Xinference</td><td>BMTrain</td><td>SGLung</td><td>Kubernetes</td></tr><tr><td colspan="2">基础训练框架</td><td colspan="2">大模型分布式加速框架</td><td>大模型推理引擎</td><td colspan="2">集群运维管理工具</td></tr><tr><td rowspan="3">自研MXMACA软件栈,兼容国际主流GPU生态,实现国产GPU零成本迁移</td><td rowspan="3">基础软件层:MXMACA异构计算软件栈</td><td>mcDNN</td><td>mcBLAS</td><td>MCCL</td><td>macaRT</td><td></td><td>Converter Quantizer</td><td>Triton</td></tr><tr><td>mcsc</td><td></td><td>Python</td><td colspan="3">C++(MXMACA C++)</td><td>SMI</td></tr><tr><td>KMD</td><td>UMD</td><td>RDMA</td><td>Virtualization</td><td>Docker</td><td>Profiler</td><td>SMI</td></tr><tr><td>丰富的GPGPU产品矩阵,夯实大模型算力底座</td><td>基础硬件层:曦云聊天系列硬件</td><td></td><td></td><td></td><td></td><td></td><td></td><td></td></tr></table> 2.3.3 国内算力芯片公司一览 <table><tr><td>公司</td><td>核心技术</td><td>应用领域</td><td>市占率</td></tr><tr><td>寒武纪(思元系列)</td><td>思元590支持8芯片级联,FP16集群算力2.048 PFLOPS动态稀疏计算提升30%效率,性能达英伟达A100集群70%</td><td>涵盖云端训练推理、边缘计算,广泛应用于政府智算中心等场景</td><td>国产AI芯片市场地位重要,云端训练芯片国产替代率超30%</td></tr><tr><td>华为海思(昇腾系列)</td><td>自研达芬奇架构,昇腾910C采用Chiplet双芯封装,1024芯片集群FP16算力819.2 PFLOPS,总带宽3.2768PB/s,对标英伟达H100集群,支撑千亿参数模型训练</td><td>覆盖智慧城市、自动驾驶等多场景,为多领域提供高效算力支撑</td><td>国内AI芯片市占率领先,2025年Q1昇腾云服务订单增长120%</td></tr><tr><td>摩尔线程(MTT S系列GPU等)</td><td>MTT S80 12nm工艺,8卡集群INT8算力1120 TOPS,兼容CUDA生态,迭代速度行业领先</td><td>覆盖图形渲染、AI计算等,适用于游戏、设计等场景</td><td>新兴GPU市场份额逐步扩大,获中小企业及专业用户认可</td></tr><tr><td>沐曦(MXC500GPU等)</td><td>MXC500 7nm工艺,4卡集群FP32算力60 TFLOPS,内存总带宽3.276 TB/s,兼容CUDA</td><td>适用于AI计算、高性能计算等,为多类机构提供GPU算力</td><td>新兴GPU市场认可度提升,份额逐步增长,国产替代潜力大</td></tr></table> 资料来源:湖北日报,华西证券研究所 # 03 大模型产业步入新阶段 海外大模型迭代加速 国产大模型崛起 初创公司上市带来资本热潮 # 3.1.1 海外大模型迭代加速图: Google实现大模型加速迭代,且有后来居上态势 Gemini 3正式推出,Google大模型迭代速度明显加快。11月18日,Google正式推出Geminii 3系列模型,并同步上线 Gemini 3 Pro预览版。Google自年初推出 Gemini 2.0 Flash以来,相继推出 Gemini 3、Gemini 2.5 Pro、Veo 3、Gemini 3等多款产品,迭代明显加速。 Google在AI领域呈现后来居上态势。 Gemini 3在多个测试集上给出优异表现,相较于此前Google针对于openAI、Anthropic等大厂一直采取的跟随防守举措,本次Gemini 3表现出赶超态势。 Gemini 3 Deep Thinking Mode在多个测试集上超越同类大模型产品 Gemini Nano Banana Pro多模态生成能力 # 3.1.2 海外大模型迭代加速 算力+大模型+应用全栈生态令 Google成为当下AI产业领头羊 算力:Google自研算力芯片TPU。 大模型:Google Gemini系列大模型 应用:Google具备云、搜索引擎、移动端操作系统等多个流量入口 算力 TPU $^{V4}$ 大模型 Gemini Google Google Cloud 应用 Android # 3.1.3 海外大模型迭代加速 # 海外AI产业由一家独大变为多 强并立 海外大模型整体呈现加速迭代趋势,竞争格局由一家独大变为多强并立。继Google于11月18日推出Gemini 3后,GPT-5.2、Claude 4.5等产品相继推出,海外大厂产品迭代加快。同时,由openAI一家领跑变为openAI、Google、Anthropic多强并立。 # 大模型整体降费有利于商业推广。 大厂大模型产品整体呈现降费趋势,目前每百万tokens输出价格降至30美元以下,有利于应用端推广。 <table><tr><td></td><td>openAI</td><td>Google</td><td>Anthropic</td></tr><tr><td>大模型</td><td>GPT-5.2</td><td>Gemini 3</td><td>Claude 4.5</td></tr><tr><td>定价</td><td>每百万tokens 4美元/18美元</td><td>每百万tokens 1.75美元/14 美元</td><td>每百万tokens 5美元/25美元</td></tr><tr><td>主要特点</td><td>通用型大模型 平台</td><td>功能全面 多模态能力 生态入口优势</td><td>长上下文理解 企业专业服务</td></tr><tr><td>MAU</td><td>约11亿</td><td>约3.5亿</td><td>约2000万</td></tr><tr><td>自研硬件</td><td>未公开</td><td>TPU</td><td>未公开</td></tr><tr><td>生态体系</td><td>未公开</td><td>搜索、云服务、移动端操作系统</td><td>未公开</td></tr></table> 资料来源:虎嗅、新浪财经、Analyzezify等,华西证券研究所 # 3.2.1 国产大模型崛起 # 国产大模型动作不断 阿里QWEN3及商业项目发布。阿里巴巴此前已于4月28日发布并开源通义千问3.0(Qwen3)系列模型,11月17日,阿里巴巴正式宣布“千问”项目,全力进军AI to C市场。当天 字节豆包大模型1.8发布。12月18日,字节正式推出豆包大模型1.8和豆包视频生成模型Seedance 1.5 pro。 DeepSeek-V3.2发布。2025年12月1日,DeepSeek-V3.2和DeepSeek-V3.2-Speciale两个版本正式发布:分别以平衡推理能力与输出长度和长思考增强为核心 <table><tr><td></td><td>阿里巴巴</td><td>字节跳动</td><td>Deepseek</td></tr><tr><td>大模型</td><td>QWEN 3</td><td>豆包大模型 1.8</td><td>DeepSeek- V3.2</td></tr><tr><td>参数体量</td><td>2350亿</td><td>2000亿</td><td>6850亿</td></tr><tr><td>主要特点</td><td>通用性强;多模态融合</td><td>功能全面;多模态能力</td><td>语义理解能力强;开源与本地化支持</td></tr><tr><td>MAU</td><td>约4000万</td><td>约1.6亿</td><td>约1.5亿</td></tr><tr><td>自研硬件</td><td>平头哥寒光、玄铁</td><td>未公开</td><td>未公开</td></tr><tr><td>生态体系</td><td>电商、支付、云服务</td><td>社交、电商、云服务</td><td>未公开</td></tr></table> 资料来源:新浪财经、36Kr等,华西证券研究所 # 3.2.2 国产大模型崛起 阿里系实现多元生态,布局应用场景突破 千问APP:千问APP11月17日公测,开放AI PPT、AI写作、AI文库、AI讲题四项新功能,仅23天月活跃用户数已突破3000万,成为全球增长最快的AI应用。 灵光APP:定位于全模态通用AI助手,截止至12月26日,灵光用户已成功创建1200万个闪应用。 蚂蚁阿福:蚂蚁集团旗下AI健康助手,12月16日发布后,月活用户规模已超1500万,每天回答500多万个健康提问。 千问 灵光 阿福 # 3.2.3 国产大模型崛起 阿里系在AI领域实现全栈式布局,对标Google 算力:平头哥倚天系列芯片和含光系列芯片 大模型:阿里Qwen 3系列大模型 应用:阿里云、淘宝、支付宝 # 3.2.4 国产大模型崛起 # 字节跳动加码终端投入 豆包大模型1.8发布,Token量激增。12月18日,字节推出豆包大模型1.8和豆包视频生成模型Seedance 1.5pro。截至2025年12月,豆包日均Token量突破50万亿,居中国第一、全球第三,较去年同期增长超10倍。 打造AI手机。12月1日,中兴和豆包共同官宣了努比亚M153豆包手机。12月19日,根据界面新闻消息,字节跳动正在推进与vivo、联想、传音等硬件厂商的AI手机合作。 # 豆包大模型日均使用量突破50万亿Tokens # 100+企业用户Tokens使用量突破1万亿 # 智能终端 全球Top10手机厂商中9家选择火山引擎,覆盖5亿+智能终端。 # 汽车 服务9成主流车企,智能座舱中国市场覆盖率第一。 # 金融 服务超8成系统重要性银行,8成头部券商。 # 高校 全部C9高校、超7成985高校选择火山引擎。 # 消费 助力8成咖啡茶饮品牌升级消费体验。 # 任务拆解 - 学生任务 资源社会媒体上阅读的搜索引擎 - 学生2 使用该系统创建记录查询时的已审批行为置位 - 学习任务3 - 市场情报二天包抄有神特牌的门店信息 - 学习目标 - 提出应具备的基础的博导语 - 学生号 在课程排行上,项目排名出的博硕士平均 - 学生号 姓名: 持证的银行信息和凭证(待持银行门禁系统) 身份证号码: 该表为直属量较AI参考号内销售手机占比,并由实际归母层面 # 3.3.1 初创公司上市带来资本热潮 # 智谱及MiniMax开启港股IPO 智谱及MiniMax是国内AI领域明星创业公司。前者侧重企业侧MaaS落地,后者侧重大模型及原生应用拓展 国内或将首先诞生全球大模型第一股。智谱及MiniMax先后于12月底完成港股IPO申报,而海外AI明星初创公司openAI及Anthropic尚未提交IPO申请,预计最早也要到明年上市。国内市场有望诞生全球大模型第一股,带来资本热潮。 收入体量 (2024年) 核心团队 业务构成 (2024年) 战略方向 # 智谱·AI 3.124亿元 清华大学计算机系知识工程实验室的技术成果转化而来云端部署本地化部署 MaaS平台+企业客户 MINIMAX 0.305亿美元 商汤科技高管闫 俊杰创立,团队 来自海内外AI企业 AI原生产品 开放平台及企业服务 大模型+原生应用 # 04 智领未来 具身智能、智驾与太空算力共筑AI闭环 # 4.1.1行业范式转移:从“躯干”竞争转向“大脑”比拼 > 硬件基础设施基本筑就,供应链国产化驱动BOM成本逐渐下行。当前非中国供应链下人形机器人的BOM成本约13.1万美元,到2045年将降至2.3万美元。 > “端到端”架构引领智能化升级,2026年开启具身智能泛化应用元年。Optimus Gen2.5的跑步速度、端到端的神经网络与硬件设计优化等都验证了技术成熟度。而即将发布的Optimus Gen3与小鹏的IRON标志着实体机器人正从试点走向实际应用,它们不仅在执行预设任务,更开始具备学习、适应和协作的能力。 宇树人形机器人Gen1架构图 人形机器人六维雷达对比图 # 4.1.2大脑:多模态大模型赋予机器人“逻辑与规划” > VLA架构成为行业发展基准。VLA模型,即视觉-语言-动作模型,将多模态信息整合处理,实现了端到端实时映射。小鹏汽车VLA2.0将于2026年一季度发布,创新性地去掉“语言转译”环节,实现视觉信号到动作指令的端到端直接生成。 > 基于“具身思维链”的自主决策。2025年2月,马斯克发布Grok 3,最大的特点在于引入了“思维链”推理能力。该能力让Grok3可以像人类认知过程一样逐步处理复杂任务,显著提高了模型处理复杂查询和提供更连贯、更有逻辑的响应的能力。 > 零样本泛化能力。依托端到端神经网络,机器人开始具备处理从未见过任务的泛化能力。王兴兴曾表示具身智能的“ChatGPT时刻”会表现为在生活中陌生的80%场景中,向机器人发送语言或文字指令,机器人可以完成80%左右的任务。 端到端VLA闭环流程 OpenVLA 模型 # 4.1.3感知:从“单一视觉”迈向“视触融合”的深度进化 > 视觉已转向“物理语义对齐”。机器人视觉已经从卷积神经网络发展为通过VLA(视觉-语言-动作)大模型直接理解物体的物理属性。NVIDIA的GROOT N1机器人已发展为双系统,以120Hz的频率进行动态视觉抓捕。 > 灵巧手的触觉突破。根据《2025年人形机器人核心零部件白皮书》,灵巧手是具身智能的最后一厘米,目前灵巧手在技术上已经取得突破,如触觉传感器分辨率提升至0.5mm,逼近人类指尖敏感度、部分灵巧手自由度能达到30个。宇树科技在今年4月发布自研的Unitree Dex5便拥有20个自由度、94个灵敏触点。 主要公司灵巧手对比 <table><tr><td>企业</td><td>产品</td><td>自由度(单手)</td></tr><tr><td>TESLA</td><td>Optimus Gen 2</td><td>11</td></tr><tr><td>TESLA</td><td>Optimus Gen 3</td><td>22</td></tr><tr><td>宇树科技</td><td>Dex5-1</td><td>20</td></tr><tr><td>智远</td><td>X2 Ultra</td><td>7</td></tr></table> 灵巧手模型(宇树) # 4.1.4全球竞速与产业下半场:具身智能的商用落地突围 > 2025年高端制造试点期。工信部《人形机器人创新发展指导意见》明确提出:2025年突破“大脑、小脑、肢体”关键技术,初步建立创新体系,实现批量生产。优必选Walker系列人形机器人预期2025年将交付超500台,特斯拉着手在得州超级工厂园区内推进制造设施的实际建设准备。 > 2026年开启商用服务爆发期。中国机器人供应链公司规划年产能规模介于10万台到100万台。优必选计划2026年交付数千台、2027年交付万台级别;智元机器人规划2026年1万台、未来10万台;特斯拉预计2026年底启动第三代人形机器人量产,最高年产能100万台,当年产量为5万—10万台。 > 2027年+进入C端家庭市场。马斯克称第三代人形机器人将在协调性和复杂任务执行能力上实现突破,预计能完成叠衣服、照顾小孩等家庭场景任务。优必选规划在人工智能技术持续演进的基础上,机器人将逐步从提供陪伴服务,拓展为人类生活全方位的智能伙伴。 人形机器人商用落地阶梯图 Optimus样本图 # 4.2.1端到端架构驱动特斯拉“纯视觉”路径迈入商业化拐点 》特斯拉FSD已发布v14.2.2版本。2023年11月,FSD V12版本发布,删除超过30万行代码,完全采用神经网络进行车辆控制,实现了“端到端自动驾驶”的里程碑式跨越。2025年12月,特斯拉发布FSD(监督版)V14.2.2版本,标志着“端到端”理论从验证走向成熟。 >无安全员路测开启,2026锁定Robotaxi量产元年。2025年12月14日,特斯拉启动无安全员Robotaxi路测,成为技术成熟度和商业模式可行性的关键分水岭。根据摩根士丹利的预测,得益于安全指标的持续改善以及即将投产,特斯拉Robotaxi车队规模将从目前的寥寥数辆增至2026年的约1,000辆。 > Cybercab实现极致降本。马斯克表示,Cybercab将于2026年投入生产,售价不到3万美元。随着时间的推移,每英里的运营成本将降至20美分。 Cybercab样车展示 城市出行方式成本对比 # 4.2.2国内RobotaxiUE盈利转正——开启规模化运营新周期 > L3/L4 准入试点迈向“商业许可”新阶段。2025年12月15日,工业和信息化部对两款搭载L3级有条件自动驾驶功能的车型作出附条件准入许可,并明确其上路通行试点的使用主体与场景边界。 >20万元造价确立国产“成本护城河”。百度第六代无人车Apollo RT6成本已压降至20.46万元,较第五代(48万元)大幅下降 $60\%$ ,远低于其他自动驾驶企业所推出的无人车产品。 >Robotaxi单车盈利(UE)已转正。小马智行第七代Robotaxi已量产下线超600台,在广州实现单一城市级别Robotaxi单位经济模型转正,百度萝卜快跑车队则在武汉实现了单车收益平衡。 >2030年预测实现存量出行深度渗透。Robotaxi2030年预测将占据出行市场约7%-10%的份额,部署规模达30-50万辆。武汉等先行城市凭借UE盈利模型的可复制性,到2030年渗透率有望领跑达到30%。 萝卜快跑样车展示 资料来源:中国日报网,证券时报网,财联社,新浪财经,华西证券研究所 中国Robotaxi市场渗透率预测(2024-2030E) # 4.3.1全球轨道资源竞速——低轨星座建设 低轨卫星星座不仅是商业竞争,更是国家太空战略竞争。卫星轨道和关键频段资源的稀缺性决定了"先占先得"的竞争逻辑。2025中国卫星星座已进入密集发射期,美太空探索技术公司(SpaceX)的“星链”低轨通信卫星星座已发射超9000颗卫星,国家之间的卫星资源竞争将会直接影响未来全球通信格局。 # >抢占轨道的星座 SpaceX—星链(Starlink)的规划规模为4.2万颗卫星。其截至2025年6月在轨部署为累计9132颗,在轨运营6957颗。 “千帆”巨型星座的规划规模约1.5万颗卫星。其截至2025年12月6日在轨卫星总数达到108颗, “国网”星座在2020年9月向国际电信联盟(ITU)提交的低轨互联网星座计划中显示规划总规模达12992颗卫星,将在2030年之前完成 $10\%$ 卫星的发射,到2030年之后平均每年发射量将达1800颗。其目前在轨卫星数量为127颗。 # “先占”逻辑把握全球通信格局 低轨卫星因其低时延、高通量(单星带宽达百Gbps级)和全域覆盖能力成数字经济的核心基础设施。然而低轨卫星星座的空间容量有限,地球近地轨道约可容纳约6万颗卫星。国际电信联盟做出规定,各国按照“先登先占”的规则竞争协调使用轨道位置、关键频段资源。 SpaceX、中国卫星网络集团(国网)的未来三年发射排班表 <table><tr><td></td><td>星链</td><td>千帆</td><td>国网</td></tr><tr><td>2025年</td><td>年度发射卫星总数将达到228颗</td><td>发射频率预计超100次/年</td><td>累计发射卫星已超过百颗</td></tr><tr><td>2026年</td><td>启动第三代星链卫星发射 在轨卫星数量预计突破1万颗</td><td>在轨卫星数量预计达到648颗 借助朱雀三号/天龙三号等商业火箭,实现可回收降本</td><td>长八A火箭将进入高密度发射阶段 计划发射频率约每月一次</td></tr><tr><td>2027年</td><td>在轨卫星数量预计达到12529颗</td><td>在轨卫星数量预计达到1296颗 实现初步全球覆盖</td><td>实现400颗卫星在轨运行</td></tr></table> 资料来源:新华网、腾讯网、人民优点报、华西证券研究所 # 4.3.2底层动力革命——可重复使用火箭驱动“发射成本”阶跃 > 火箭可回收技术可通过重复使用发动机、箭体等硬件,大幅降低发射成本、提升效率,对抢占低轨卫星轨道及频率资源具有关键战略价值。 > 可回收技术成果:2025年11月17日,美国SpaceX研制的猎鹰9号顺第500次利回收复飞一级助推器,验证了可重复使用技术的成熟性。2025年12月3日,中国蓝箭航天研制的朱雀三号重复使用运载火箭成功首飞,一子级火箭回收失败。此次回收实现国内首次九机并联液氧甲烷动力系统集成应用、首创不锈钢火箭箭体、首次入轨级重复使用运载火箭高精度返回飞行验证。中国国家航天体系长征十二号甲采用液氧甲烷推进剂,具有不积碳、易维护、适合快速复用等优点。目前该技术仍需更多飞行验证来证明其可靠性。 > 可回收技术降低成本:猎鹰9号单次发射摊销成本已低至3000万美元,发射报价约6985万美元。星链发射已实现每公斤入轨成本低于300美元,远低于行业平均2000-10000美元/公斤。朱雀三号未来每公斤发射费用或将降至2万元人民币以下。 火箭发射成本里程碑 # 4.3.3太空算力优势:从“太空管道”向“太空边缘节点”进化 2025年5月14日全球首个太空计算卫星星座成功发射。星座将通过星载计算能力探索验证数据的实时在轨处理,突破人工智能领域边界从地面迈向太空。传统卫星数据处理采用“天数地算(Ground-based)”模式采集数据后传回地面中心处理,其模式存在包括数据传输延迟高、星地通信带宽有限、能源消耗大、难以满足实时监测需求等在内的显著瓶颈。 > "天数天算(On-orbit)"模式将算力直接部署在太空,每颗卫星搭载星载智算系统和星间高速互联网络将响应时间从"天级"压缩至"秒级"。 极低延迟优势:银河智算星座算力较传统卫星提升500倍,能够在12秒内完成大面积AI识别,提供5毫秒级厘米定位。 带宽解耦:卫星直接在轨道上完成AI推理,仅回传高价值的分析结果而非原始像素数据,实现98%的数据量削减。 星载芯片需求带来经济增长点:卫星所处的太空辐射环境导致芯片故障率较地面高3个数量级,其能源需求制约了工作时间。为此研制的“玉龙810”宇航AI芯片实现了单芯片高算力输出,其“一星多卡”架构使单星峰值算力达576TOPS。目前,相关技术已形成完整产业链,包括抗辐射芯片到柔性光伏的上游核心部件供应链,覆盖卫星制造、火箭发射与星座组网的中游产业链,智慧城市、应急减灾等多元场景所属的下游产业链。 “天采天算”与“天采地算”处理延迟对比框图 资料来源:央视新闻、媒体界、新浪新闻、华西证券研究所 我国首个太空计算星座 # 4.3.4应用场景全景——卫星互联网 + AI 边缘计算的新空间 > 手机直连卫星(D2C):2025年,中国电信《大众智能手机直连天通卫星系统的关键技术及规模应用》项目荣获世界互联网大会领先科技奖,其依托天通一号高轨卫星系统攻克了天地网络融合、天线微型化、高质量信源编码等关键技术,实现了手机直连3.6万公里外的高轨卫星。目前,该服务已覆盖全国。 > 偏远物联网(IoT):卫星物联网通过低轨卫星星座实现全球无缝覆盖,聚焦偏远地区、移动载体、应急场景,核心解决地面网络“盲区”通信需求。如为偏远农场提供智慧农业管理,为恶劣环境下的工业运营提供可靠的物联网支持等。 > 高带宽移动场景:卫星通过验证手机直连与天地组网技术,将推动全球无死角网络覆盖,应急救援、航空航天、偏远地区通信等领域将率先受益,普通人也能享受“随时随地高速上网”的未来体验。 > 军事与特种应用:美国星链系统终端能够实现指挥系统、无人机群与卫星网络的实时联动。F-35战机可通过星链实时传输4K影像。中国使用高频段干扰系统进行反制。通过AI算法,系统能实现秒级响应。2024年南海演习中,中国电子战飞机成功通过模拟瘫痪星链终端通信制敌。 卫星实现多场景覆盖 未来天地融合通信标准模式 # 05 受益标的与风险提示 # 5.1受益标的 <table><tr><td rowspan="2"></td><td rowspan="2">代码</td><td rowspan="2">公司名称</td><td rowspan="2">最新收盘价(元)</td><td rowspan="2">市值(亿元)</td><td colspan="3">PE</td></tr><tr><td>2025E</td><td>2026E</td><td>2027E</td></tr><tr><td rowspan="4">谷歌链</td><td>300620.SZ</td><td>光库科技</td><td>147.05</td><td>366.42</td><td>291.65</td><td>138.78</td><td>102.84</td></tr><tr><td>300456.SZ</td><td>赛微电子</td><td>55.96</td><td>409.75</td><td>39.62</td><td>765.53</td><td>6661.90</td></tr><tr><td>688195.SH</td><td>腾景科技</td><td>169.55</td><td>219.31</td><td>230.87</td><td>170.68</td><td>126.04</td></tr><tr><td>002837.SZ</td><td>英维克</td><td>106.89</td><td>1043.84</td><td>163.67</td><td>103.57</td><td>71.92</td></tr><tr><td rowspan="10">英伟达产业链</td><td>300476.SZ</td><td>胜宏科技</td><td>287.58</td><td>2502.95</td><td>49.30</td><td>28.93</td><td>19.97</td></tr><tr><td>002463.SZ</td><td>沪电股份</td><td>73.07</td><td>1406.13</td><td>36.75</td><td>26.36</td><td>20.76</td></tr><tr><td>002938.SZ</td><td>鹏鼎控股</td><td>50.58</td><td>1172.47</td><td>26.97</td><td>21.38</td><td>17.85</td></tr><tr><td>300308.SZ</td><td>中际旭创</td><td>610.00</td><td>6777.82</td><td>65.34</td><td>34.95</td><td>26.80</td></tr><tr><td>300394.SZ</td><td>天孚通信</td><td>203.03</td><td>1578.39</td><td>72.76</td><td>51.35</td><td>40.75</td></tr><tr><td>300502.SZ</td><td>新易盛</td><td>430.88</td><td>4282.99</td><td>47.89</td><td>26.80</td><td>20.72</td></tr><tr><td>002837.SZ</td><td>英维克</td><td>106.89</td><td>1043.84</td><td>163.67</td><td>103.57</td><td>71.92</td></tr><tr><td>002364.SZ</td><td>中恒电气</td><td>26.44</td><td>149.01</td><td>84.23</td><td>47.26</td><td>31.73</td></tr><tr><td>002851.SZ</td><td>麦格米特</td><td>90.07</td><td>495.45</td><td>117.16</td><td>55.67</td><td>37.40</td></tr><tr><td>601138.SH</td><td>工业富联</td><td>62.05</td><td>12322.00</td><td>36.62</td><td>22.50</td><td>18.32</td></tr><tr><td rowspan="7">国产算力</td><td>688256.SH</td><td>寒武纪</td><td>1355.55</td><td>5716.15</td><td>256.56</td><td>117.31</td><td>71.53</td></tr><tr><td>688041.SH</td><td>海光信息</td><td>224.41</td><td>5216.05</td><td>166.64</td><td>111.69</td><td>80.10</td></tr><tr><td>603019.SH</td><td>中科曙光</td><td>85.64</td><td>1253.01</td><td>50.29</td><td>40.72</td><td>33.78</td></tr><tr><td>688629.SH</td><td>华丰科技</td><td>100.06</td><td>461.27</td><td>133.41</td><td>75.24</td><td>53.00</td></tr><tr><td>000034.SZ</td><td>神州数码</td><td>38.91</td><td>281.49</td><td>25.87</td><td>19.76</td><td>16.33</td></tr><tr><td>600498.SH</td><td>烽火通信</td><td>32.08</td><td>435.70</td><td>46.46</td><td>40.20</td><td>35.34</td></tr><tr><td>603296.SH</td><td>华勤技术</td><td>90.74</td><td>921.68</td><td>22.69</td><td>18.22</td><td>15.03</td></tr></table> 5.1受益标的 <table><tr><td rowspan="2"></td><td rowspan="2">代码</td><td rowspan="2">公司名称</td><td rowspan="2">最新收盘价(元)</td><td rowspan="2">市值(亿元)</td><td colspan="3">PE</td></tr><tr><td>2025E</td><td>2026E</td><td>2027E</td></tr><tr><td rowspan="7">AI应用</td><td>300624.SZ</td><td>万兴科技</td><td>70.65</td><td>136.59</td><td>935.76</td><td>147.99</td><td>90.53</td></tr><tr><td>1357.HK</td><td>美图公司</td><td>7.00</td><td>321.03</td><td>33.86</td><td>24.22</td><td>18.63</td></tr><tr><td>300378.SZ</td><td>鼎捷数智</td><td>45.26</td><td>122.90</td><td>63.68</td><td>50.76</td><td>40.64</td></tr><tr><td>300170.SZ</td><td>汉得信息</td><td>18.92</td><td>193.41</td><td>77.92</td><td>62.61</td><td>50.81</td></tr><tr><td>688615.SH</td><td>合合信息</td><td>227.58</td><td>318.61</td><td>66.93</td><td>54.04</td><td>43.72</td></tr><tr><td>688111.SH</td><td>金山办公</td><td>307.07</td><td>1422.28</td><td>75.42</td><td>62.91</td><td>51.43</td></tr><tr><td>688095.SH</td><td>福昕软件</td><td>89.27</td><td>81.56</td><td>168.18</td><td>78.71</td><td>48.95</td></tr><tr><td rowspan="6">机器人</td><td>600699.SH</td><td>均胜电子</td><td>31.36</td><td>464.58</td><td>31.33</td><td>25.53</td><td>21.68</td></tr><tr><td>603179.SH</td><td>新泉股份</td><td>73.88</td><td>376.89</td><td>35.25</td><td>27.14</td><td>21.35</td></tr><tr><td>301225.SZ</td><td>恒勃股份</td><td>165.50</td><td>171.09</td><td>109.28</td><td>94.44</td><td>82.28</td></tr><tr><td>300007.SZ</td><td>汉威科技</td><td>53.60</td><td>175.51</td><td>94.37</td><td>121.38</td><td>94.05</td></tr><tr><td>605488.SH</td><td>福莱新材</td><td>34.35</td><td>96.26</td><td>79.61</td><td>60.32</td><td>45.94</td></tr><tr><td>688109.SH</td><td>品茗科技</td><td>127.10</td><td>100.21</td><td>161.09</td><td>107.19</td><td>78.24</td></tr><tr><td rowspan="3">智驾</td><td>2026.HK</td><td>小马智行</td><td>117.30</td><td>508.54</td><td>-27.92</td><td>-28.61</td><td>-33.09</td></tr><tr><td>0800.HK</td><td>文远知行</td><td>23.00</td><td>236.12</td><td>-14.60</td><td>-16.46</td><td>-24.36</td></tr><tr><td>300698.SZ</td><td>万马科技</td><td>42.13</td><td>56.45</td><td>75.27</td><td>46.28</td><td>35.06</td></tr><tr><td rowspan="8">商业航天</td><td>002149.SZ</td><td>西部材料</td><td>45.51</td><td>222.19</td><td>110.54</td><td>82.30</td><td>59.57</td></tr><tr><td>603601.SH</td><td>再升科技</td><td>12.47</td><td>128.46</td><td>121.90</td><td>82.36</td><td>61.92</td></tr><tr><td>301005.SZ</td><td>超捷股份</td><td>155.27</td><td>208.48</td><td>431.91</td><td>341.85</td><td>225.58</td></tr><tr><td>002792.SZ</td><td>通宇通讯</td><td>42.70</td><td>223.96</td><td>288.90</td><td>172.25</td><td>101.11</td></tr><tr><td>300751.SZ</td><td>迈为股份</td><td>205.99</td><td>575.55</td><td>68.81</td><td>60.05</td><td>50.04</td></tr><tr><td>002865.SZ</td><td>钧达股份</td><td>54.61</td><td>137.46</td><td>-33.05</td><td>22.72</td><td>13.13</td></tr><tr><td>300136.SZ</td><td>信维通信</td><td>62.00</td><td>599.89</td><td>80.44</td><td>64.23</td><td>50.31</td></tr><tr><td>300342.SZ</td><td>天银机电</td><td>33.13</td><td>140.81</td><td>0.00</td><td>0.00</td><td>0.00</td></tr><tr><td>AI应用</td><td>300624.SZ</td><td>万兴科技</td><td>70.65</td><td>136.59</td><td>935.76</td><td>147.99</td><td>90.53</td></tr></table> # 5.2风险提示 政策落地不及预期 AI下游产品需求不及预期 - 核心技术水平升级不及预期 - 全球经济发展不确定性 # 分析师承诺 作者具有中国证券业协会授予的证券投资咨询执业资格或相当的专业胜任能力,保证报告所采用的数据均来自合规渠道,分析逻辑基于作者的职业理解,通过合理判断并得出结论,力求客观、公正,结论不受任何第三方的授意、影响,特此声明。 评级说明 <table><tr><td>公司评级标准</td><td>投资评级</td><td>说明</td></tr><tr><td rowspan="5">以报告发布日后的6个月内公司股价相对上证指数的涨跌幅为基准。</td><td>买入</td><td>分析师预测在此期间股价相对强于上证指数达到或超过15%</td></tr><tr><td>增持</td><td>分析师预测在此期间股价相对强于上证指数在5%-15%之间</td></tr><tr><td>中性</td><td>分析师预测在此期间股价相对上证指数在-5%-5%之间</td></tr><tr><td>减持</td><td>分析师预测在此期间股价相对弱于上证指数5%-15%之间</td></tr><tr><td>卖出</td><td>分析师预测在此期间股价相对弱于上证指数达到或超过15%</td></tr><tr><td>行业评级标准</td><td></td><td></td></tr><tr><td rowspan="3">以报告发布日后的6个月内行业指数的涨跌幅为基准。</td><td>推荐</td><td>分析师预测在此期间行业指数相对强于上证指数达到或超过10%</td></tr><tr><td>中性</td><td>分析师预测在此期间行业指数相对上证指数在-10%-10%之间</td></tr><tr><td>回避</td><td>分析师预测在此期间行业指数相对弱于上证指数达到或超过10%</td></tr></table> # 华西证券研究所: 地址:北京市西城区太平桥大街丰汇园11号丰汇时代大厦南座5层 网址:http://www.hx168.com.cn/hxzq/hxindex.html # 免责声明 华西证券股份有限公司(以下简称“本公司”)具备证券投资咨询业务资格。本报告仅供本公司签约客户使用。本公司不会因接收人收到或者经由其他渠道转发收到本报告而直接视其为本公司客户。 本报告基于本公司研究所及其研究人员认为的已经公开的资料或者研究人员的实地调研资料,但本公司对该等信息的准确性、完整性或可靠性不作任何保证。本报告所载资料、意见以及推测仅于本报告发布当日的判断,且这种判断受到研究方法、研究依据等多方面的制约。在不同时期,本公司可发出与本报告所载资料、意见及预测不一致的报告。本公司不保证本报告所含信息始终保持在最新状态。同时,本公司对本报告所含信息可在不发出通知的情形下做出修改,投资者需自行关注相应更新或修改。 在任何情况下,本报告仅提供给签约客户参考使用,任何信息或所表述的意见绝不构成对任何人的投资建议。市场有风险,投资需谨慎。投资者不应将本报告视为做出投资决策的惟一参考因素,亦不应认为本报告可以取代自己的判断。在任何情况下,本报告均未考虑到个别客户的特殊投资目标、财务状况或需求,不能作为客户进行客户买卖、认购证券或者其他金融工具的保证或邀请。在任何情况下,本公司、本公司员工或者其他关联方均不承诺投资者一定获利,不与投资者分享投资收益,也不对任何人因使用本报告而导致的任何可能损失负有任何责任。投资者因使用本公司研究报告做出的任何投资决策均是独立行为,与本公司、本公司员工及其他关联方无关。 本公司建立起信息隔离墙制度、跨墙制度来规范管理跨部门、跨关联机构之间的信息流动。务请投资者注意,在法律许可的前提下,本公司及其所属关联机构可能会持有报告中提到的公司所发行的证券或期权并进行证券或期权交易,也可能为这些公司提供或者争取提供投资银行、财务顾问或者金融产品等相关服务。在法律许可的前提下,本公司的董事、高级职员或员工可能担任本报告所提到的公司的董事。 所有报告版权均归本公司所有。未经本公司事先书面授权,任何机构或个人不得以任何形式复制、转发或公开传播本报告的全部或部分内容,如需引用、刊发或转载本报告,需注明出处为华西证券研究所,且不得对本报告进行任何有悖原意的引用、删节和修改。