> **来源:[研报客](https://pc.yanbaoke.cn)** # 2026年展望:AI能力跃迁驱动商业化全面提速 华泰研究 2025年12月15日|中国内地 年度策略 # 2026年展望:AI能力跃迁驱动商业化全面提速 全球AI产业正处于能力跃迁与商业化加速的交汇点。模型端,中美两国的头部厂商仍将主导全球大模型格局,美国依托算力与后训练优势持续保持领先,国内厂商则在架构优化、注意力加速等方向形成差异化突破,ScalingLaw2.0驱动下的迭代分化趋势愈发明显。算力端,推理范式的全面升级带来算力需求结构的深刻变化,连续推理、多模态生成等高价值场景将成为未来增量的核心来源;同时,云厂商Capex上修与超大规模合作模式的扩散正推动全球数据中心建设进入新加速点。应用端,2026年有望成为AI商业化的关键拐点,模型能力、工程体系与商业模式的同步成熟将推动AI应用从“工具可用”迈向“价值可兑付”,看好AI应用商业化加速。 # 大模型:中美两国或将长期主导全球大模型的发展 全球主流大模型集中于中美,两国头部厂商或长期占据主导优势。基于Artificial Analysis的数据与模型智能指标观察,当前头部模型整体由美国阵营领跑,海外最具代表性者为OpenAI、xAI、Anthropic与Google。国内方面,从模型性能维度评估,DeepSeek、Qwen(阿里系)、智谱模型位居前列,Kimi与MiniMax等亦处于国内较为领先的行列,腾讯模型在多模态和3D上处于领先地位。当下,强化学习+后训练范式依然主导着模型的迭代。而在Scaling Law 2.0驱动下,中美模型迭代路径分化明显:海外重心由预训练转向后训练与强化学习,依靠算力取得性能优势;国内在算力受限下更侧重架构与算法精修,以注意力优化技术提升训练推理效率与性价比。 # AI算力:推理范式跃迁驱动算力建设加速 在推理范式全面升级的大背景下,全球算力需求正沿着“用户×时长×深度”的三角模型快速扩张,算力增长进入新一轮结构性上升周期。基于OpenAI、Google、Microsoft等厂商近期数据观察,AI应用用户数与使用时长持续提升,推理深度由通用对话向复杂任务、连续推理与长期运行加速演进,新形态应用显著拉动推理侧算力消耗。在供给与商业化侧,Google等云厂商的Token消耗量保持高位,未来将更多由高价值应用驱动;合作模式与融资结构亦在重塑算力供给节奏,OpenAI牵头的36GW合作项目以及北美CSPCapex上修均指向算力建设节奏的进一步提速。总体来看,推理范式的跃迁正与数据中心投资加速形成共振。 # AI应用:商业化临界点将至,2026年有望迎来规模化跃迁 AI应用正站在大规模商业化临界点前夕。经历2023-2025年的连续三年迭代,AI应用的演进路径已逐步清晰:全球AI应用正在跨过由“工具可用”迈向“价值可兑付”的关键阶段。展望2026年,我们认为AI应用的放量节奏将由“单点突破”加速切换至“结构性扩散”。驱动力主要来自三方面:1)模型能力持续迭代,推理能力、Agent执行能力、可控性持续增强,为AI应用提供更强的工程化底座;2)数据体系、企业级AI中台及可观测性工具逐步成熟,应用的交付成本与部署难度持续下降;3)商业模式从订阅式向用量/效果付费演进,为AI应用的规模化提供更广阔的场景承载空间。重点公司推荐:第四范式、鼎捷数智、虹软科技、嘉和美康、网宿科技、浪潮信息、福昕软件、深信服、能科科技、金山办公。 风险提示:宏观经济波动,技术进步不及预期,中美竞争加剧。研报中涉及到未上市公司或未覆盖个股内容,均系对其客观公开信息的整理,并不代表本研究团队对该公司、该股票的推荐或覆盖。 科技 增持 (维持) 计算机 增持 (维持) 谢春生 研究员 SAC No. S0570519080006 xiechunsheng@htsc.com SFC No. BQZ938 +(86) 21 2987 2036 郭雅丽 研究员 SAC No. S0570515060003 guoyali@htsc.com SFC No. BQB164 +(86) 21 3847 6016 范畴蕊 研究员 SAC No. S0570521060004 fanyirui@htsc.com SFC No. BWD469 + (86) 21 2897 2228 袁泽世*, PhD 研究员 SAC No. S0570524090001 yuanzeshi@htsc.com $(+86)2128972228$ 岳铂雄* 研究员 SAC No. S0570524080004 yueboxiong@htsc.com $(+86)2138476087$ 王浩天* 联系人 SAC No. S0570125010006 wanghaotian@htsc.com $(+86)2128972228$ 徐诚伟* 联系人 SAC No. S0570125070089 xuchengwei@htsc.com $+$ (86) 21 2897 2228 行业走势图 资料来源:Wind,华泰研究 重点推荐 <table><tr><td>股票名称</td><td>股票代码</td><td>目标价 (当地币种)</td><td>投资评级</td></tr><tr><td>第四范式</td><td>6682 HK</td><td>87.00</td><td>买入</td></tr><tr><td>鼎捷数智</td><td>300378 CH</td><td>68.07</td><td>买入</td></tr><tr><td>嘉和美康</td><td>688246 CH</td><td>33.17</td><td>买入</td></tr><tr><td>虹软科技</td><td>688088 CH</td><td>73.47</td><td>买入</td></tr><tr><td>网宿科技</td><td>300017 CH</td><td>14.47</td><td>买入</td></tr><tr><td>福昕软件</td><td>688095 CH</td><td>119.23</td><td>买入</td></tr><tr><td>浪潮信息</td><td>000977 CH</td><td>83.20</td><td>买入</td></tr><tr><td>能科科技</td><td>603859 CH</td><td>50.68</td><td>买入</td></tr><tr><td>深信服</td><td>300454 CH</td><td>145.80</td><td>买入</td></tr><tr><td>金山办公</td><td>688111 CH</td><td>380.80</td><td>买入</td></tr></table> 资料来源:华泰研究预测 # 正文目录 # 中美两国持续引领大模型迭代 5 Transformer架构依然主流,Diffusion值得关注. 8 # Scaling Law 2.0 下,中美模型迭代的差异化路径 ..... 10 Scaling Law 2.0 含义更加丰富,数据、算力持续攀升 ..... 10 大模型训练数据量持续提升 10 训练算力与训练成本保持快速增长 11 海外押注预/后训练,国内注重效率提升 12 海外:xAI持续践行“大力出奇迹”,紧抓后训练和强化学习 12 国内:阿里、DeepSeek创新性架构优化,抓住Attention本质 13 # AI算力:推理范式跃迁驱动全球算力建设进入新加速点 16 从推理范式看算力需求扩张节奏 16 用户 $\times$ 时长 $\times$ 深度:全球算力需求的三角模型 ..... 16 新应用范式下,Token消耗量的展望 18 合作模式创新:数据中心建设节奏进入新加速点 20 OpenAI多项合作为未来算力建设提供指引 20 新型融资模式为算力建设提供资金支撑. 21 北美CSP厂商Capex持续上修 22 三大互联协同演进:高带宽、低延迟、跨区域 22 Scale up 协议走向开放,市场规模快速扩大 ..... 23 单一数据中心限制驱动Scaleacross(DCI)扩展迅速 24 # AI应用:“突破”加速,“蝶变”在即 25 2025年中国AI应用复盘:“刚需”和“重构” 27 中国AI应用两大发展路径:巨头生态融合&垂类场景深耕 27 中国AI应用落地节奏:高容错率、高ROI、数字化基础好的场景/行业落地更快 28 商业模式:私有化部署先行,订阅模式主要集中在轻量化场景 30 2026年AI应用投资策略:拥抱“确定性”,配置“真成长” 32 趋势一:企业数据成为2BAI应用关键,看好长流程应用机遇 32 趋势二:2C AI应用强调“入口”优势,头部厂商加快端侧布局 36 趋势三:AI加速“云化”转型,云厂商受益趋势明显 39 按梯队看AI应用标的的选择标准 40 # 计算机2026展望:从“控费”转向“内生增长” 43 2025三季报综述:营收温和复苏,强控费驱动利润高增长 43 2026年展望:AI有望驱动营收增长和毛利率修复,费用率预计保持平稳 45 2026年需求端展望:AI有望成为计算机行业需求增长的重要驱动力 46 2026利润展望:毛利率有望修复,费用率预计保持平稳 46 # 总结与相关标的 47 重点公司推荐 47 风险提示 49 # 图表目录 图表 1: 全球主流大模型智能性概览:中美大模型之争. 图表2:全球大模型主要玩家的能力矩阵 6 图表3:Google2025年以来的模型更新情况 图表4:当前全球大模型仍以Transformer的decoder-only架构为核心主流.8 图表5:Google Gemini Diffusion 9 图表6:字节SeedDiffusionPreview. 9 图表7:OpenAIo系列模型带来ScalingLaw2.0. 10 图表8:ScalingLaw的三层递进 10 图表9:大模型训练数据量从15T tokens提升到30T以上 11 图表10:前沿人工智能模型的训练计算量大约每六个月翻一番 11 图表 11: Grok 模型的演进对应了 Scaling Law 的 1.0 到 2.0 阶段 图表 12: xAI 训练团队在 X 平台指出 Grok-4.1 后训练算力有数量级的提升 图表 13: Qwen3-Next 通过 Attention 优化提升长文本与大参数效率. 14 图表 14: DeepSeek-V3.2-Exp 相比 V3.1-Terminus 在不同长度位置 Token 的推理成本显著降低 图表 15: DeepSeek-V3.2-Exp NSA 注意力架构 图表16:推理需求的三个变量 16 图表 17: OpenAI WAU (周活跃用户) 持续增长 图表 18: Google AI Mode 通过更多推理提供更详细的搜索结果 图表 19: OpenAI Pulse 可实现闲时推理思考, 主动推送 图表20:海外云厂商token消耗情况 18 图表 21: Google AI Mode 对话式购物功能 ..... 19 图表 22: OpenAI 合作示意 ..... 20 图表 23: OpenAI 产业链 ..... 20 图表24:CSP举债融资规模 21 图表25:北美四大CSP equity/debt比率 21 图表26:北美云厂商Capex情况 22 图表27:AI算力需求扩张催生三大互联需求 22 图表28:目前主流的Scaleup协议. 23 图表 29: Scale Up 交换机规模有望快速增长 ..... 23 图表30:DCI市场规模有望实现快速增长 24 图表 31: 2023-2025 年 AI 应用演进历程复盘 ..... 25 图表 32:AI 应用面临工程化、商业化双重挑战 ..... 26 图表33:科技巨头AI布局 28 图表34:AI应用落地节奏:场景 29 图表35:AI应用落地节奏:垂直行业 30 图表36:中国AI应用商业模式以“项目制”为主的主要原因. 31 图表37:部分AI解决方案类公司AI业务进展 31 图表38:部分AI+SaaS公司AI业务进展 32 图表39:2BAI应用向复杂场景不断拓展 33 图表40:AI变革倒逼企业深化数据资产治理 33 图表 41:公有云厂商、数据工具商、应用厂商发力数据中台产品. 34 图表 42:海外 SaaS 厂商加快数据技术的并购整合. 34 图表 43:长流程应用有望凭借“数据+流程”优势构建企业级 Agent 平台. 35 图表44:海内外长流程应用厂商业务布局概览 35 图表 45: 2C AI 应用逐步向入口级应用收敛. 36 图表46:25年10月ChatGPT的周活用户数(WAU)达到8亿 36 图表 47: Meta AI 月活用户数突破 10 亿. 37 图表48:25Q2金山办公WPSAI月活数达到2,951万 37 图表49:海外大厂AI终端布局概览 38 图表50:新AI终端有望成为“AI互联网”发展提速的关键. 38 图表51:海外公有云厂商收入持续兑现(截至25Q3) 39 图表52:国内公有云厂商25年云业务收入显著改善(截至25Q2) 39 图表53:计算机行业整体营收情况(全口径) 43 图表54:计算机行业整体营收情况(小口径) 43 图表55:计算机行业整体归母净利情况(全口径) 43 图表56:计算机行业整体归母净利情况(小口径) 43 图表57:计算机行业整体扣非净利情况(全口径) 44 图表58:计算机行业整体扣非净利情况(小口径) 44 图表59:计算机行业毛利率情况(全口径) 44 图表60:计算机行业毛利率情况(小口径) 44 图表61:计算机行业期间费用率情况(全口径) 45 图表62:计算机行业期间费用率情况(小口径) 45 图表63:计算机行业经营性现金流情况(全口径) 45 图表64:计算机行业经营性现金流情况(小口径) 45 图表65:重点公司推荐一览表 47 图表66:重点推荐公司最新观点 47 # 中美两国持续引领大模型迭代 全球主流大模型集中于中美,两国头部厂商或长期占据主导优势。基于Artificial Analysis的数据与模型智能指标观察,当前头部模型整体由美国阵营领跑,海外最具代表性者为OpenAI、xAI、Anthropic与Google;曾在开源方向表现突出的Meta,受Llama4系列推进不顺等因素影响,模型性能阶段性落后。国内方面,从模型性能维度评估,DeepSeek、Qwen(阿里系)、智谱模型位居前列,Kimi与MiniMax等亦处于国内较为领先的行列。腾讯、百度的模型没有被纳入排行榜单,但其模型依然各有特色。我们认为,上述格局反映了中美在基础模型与工程化推进上的综合优势。 图表1:全球主流大模型智能性概览:中美大模型之争 注:Artificial Analysis Intelligence Index v3.0 包含 10 种评估:MMLU-Pro、GPQA Diamond、Humanity's Last Exam、LiveCodeBench、SciCode、AIME 2025、IFBench、AA-MCR、Terminal-Bench Hard、 $\tau^{2}$ -Bench Telecom。截至 25 年 11 月资料来源:Artificial Analysis、华泰研究 Google当前拥有较为全面的全栈模型软硬件能力,其他国家强化补短。据ArtificialAnalysis数据,以四维能力矩阵系统评估全球大模型主要竞争者的能力与定位现状,框架涵盖最底层的硬件支撑、其上的云服务能力、进一步的技术模型能力以及面向终端的顶层应用四个维度。从现阶段表现看,Google在上述各维度的能力布局相对均衡且覆盖面广,体现为底层自研硬件(TPU系列)到应用的端到端一体化优势。相对而言,其他国家也在逐步补齐短板,如OpenAI在底层定制化硬件方面暂处于落后位置,但是据路透社信息,OpenAI已宣布与博通合作开发新一代ASIC芯片,以期强化算力与成本控制的基础能力;国内DeepSeekV3.1及之后系列、智谱GLM4.6在Day0即适配了国产芯片。我们认为,当前大模型玩家格局呈现“Google更全面、其他厂商强化补短”的阶段性特征。 图表2:全球大模型主要玩家的能力矩阵 资料来源:Artificial Analysis、华泰研究 Google在多模态模型领域的综合实力突出,技术积累构筑长期竞争壁垒,实现多点开花。对比海外主要厂商,OpenAI以文本生成和图片生成为核心,并拓展至实时语音及视频生成(Sora系列),但产品迭代节奏相对分散,如Sora于24年2月发布,直到12月才上线,25年10月更新Sora2;Anthropic聚焦纯文本及部分视觉理解,多模态生成能力有限;xAI同样以文本生成为主,尚未正式发布视频生成模型。相比之下,Google依托多模态融合及跨领域研究的深厚储备,具备系统化的模型开发与算力调度能力,图像(Gemini Image系列)、视频(Veo系列)、机器人(PaLM-E、Gemini Robotics系列)多点开花。我们认为,Google的多模态布局覆盖面广,技术底座稳健,为后续模型代际跃迁奠定基础。 Gemini3作为Google多代技术积累的集中释放,验证预训练与后训练仍具显著提升空间。回顾迭代节奏,Gemini1以原生多模态与长上下文能力扩大模型可处理的信息类型与规模;Gemini2进一步奠定面向复杂任务的Agent能力框架,带来更高质量的推理与任务分解。在此前提下,Gemini3实现多模态理解、Agent能力与Coding能力的全面释放,构成更成熟的能力体系。据Google官网信息,Gemini团队在预训练阶段取得模型能力的阶段性跃升,未呈现外界担忧的规模化受限迹象。与此同时,包括强化学习在内的后训练仍具进步和改进空间。两条路径共同塑造了Gemini3的综合性能进展。Gemini3Pro在多模态理解和生产力应用场景表现突出,其中Vending-Bench2基准显示,其在长时序运营模拟中能够保持稳定的工具调用与决策节奏,实现更高回报且未偏离任务目标。 图表3:Google2025年以来的模型更新情况 <table><tr><td>模型</td><td>发布日期</td><td>模型路线</td><td>特点</td><td>是否开源</td></tr><tr><td>Gemini 2.0 Flash Thinking</td><td>2025.02</td><td>强化学习</td><td>CoT模型,当时的性能强于o1</td><td>否</td></tr><tr><td>Gemini 2.0 Flash-Lite</td><td>2025.02</td><td></td><td></td><td>否</td></tr><tr><td>Gemma 3</td><td>2025.03</td><td>与 Gemini 相同</td><td>开源小模型,支持端侧</td><td>是</td></tr><tr><td>Gemini Robotics</td><td>2025.03</td><td>VLA(Vision-Language-Action)</td><td>面向多步任务;“边思考边行动”与自然语言解释;从ALOHA-2到Franka再到Applronik Apollo的跨机体迁移</td><td>否</td></tr><tr><td>Gemini 2.5 Pro</td><td>2025.03</td><td>与 Gemini 相同</td><td>在LMArena排行榜(衡量人类偏好)上递递领先,表明该模型具有出色的性能和高品质的风格。2.5Pro还表现出强大的推理和编码能力,在常见的编码、数学和科学基准测试中处于领先地位。</td><td>否</td></tr><tr><td>Gemini 2.5 Flash 预览版</td><td>2025.04</td><td>与 Gemini 相同,是混合推理模型</td><td>Google首个完全混合推理模型,让开发者能够开启或关闭“思考”。该模型还允许开发者设定“思考预算”。5月21日的I/O大会上,发布了2.5Flash更新版</td><td>否</td></tr><tr><td>Gemini 2.5 Pro</td><td>2025.05</td><td>与 Gemini 相同,是混合推理模型</td><td>预览了实时语音输出功能。支持推理成本控制,即控制思考时间来控制成本。推出Deep Think功能</td><td>否</td></tr><tr><td>Gemini Diffusion</td><td>2025.05</td><td>Diffusion</td><td>主流大厂第一次用Diffusion做文本生成,输出速度远快于Transformer架构。值得持续关注。</td><td>否</td></tr><tr><td>Veo 3</td><td>2025.05</td><td></td><td>内置音效/对白生成、更强的一致性与控制;模型页标注4K输出、现实物理、更强提示对齐</td><td>否</td></tr><tr><td>Gemini Robotics On-Device</td><td>2025.06</td><td>本地部署优化的VLA</td><td>通用灵巧操控(如开拉链、叠衣等)、任务泛化与低时延推理;面向双臂平台起步</td><td>否</td></tr><tr><td>Gemini 2.5 Pro/Flash 稳定版</td><td>2025.06</td><td>MoE,原生多模态</td><td>Gemini 2.5设计成一个混合推理模型系列。将2.5Pro和Flash模型发布为稳定版和正式版</td><td>否</td></tr><tr><td>Gemini 2.5 Flash-Lite 预览版</td><td>2025.06</td><td>MoE,原生多模态</td><td>Gemini 2.5设计成一个混合推理模型系列,2.5Flash-Lite 预览版——这是我们迄今为止最具成本效益和速度最快的2.5模型。</td><td>否</td></tr><tr><td>Gemma 3n</td><td>2025.06</td><td>MatFormer(套娃式Transformer)</td><td>设备端人工智能的重大进步,将强大的多模态能力带到边缘设备</td><td>是</td></tr><tr><td>Genie 3</td><td>2025.08</td><td>自回归视频世界模型</td><td>可实时交互、数分钟级一致性;支持在生成世界里设定目标并用SIMA等智能体验证;强调物理与环境一致性</td><td>否</td></tr><tr><td>Gemma 3 270M</td><td>2025.08</td><td>Transformer</td><td>紧凑模型,从零开始设计用于任务特定的微调,且已在训练中具备了强大的遵循指令和文本结构化能力。关键优势是其低功耗</td><td>是</td></tr><tr><td>Gemini 2.5 Flash Image (banana)</td><td>2025.08</td><td>NA</td><td>先进的图像生成和编辑模型</td><td>否</td></tr><tr><td>Gemini Robotics 1.5</td><td>2025.09</td><td>升级版 VLA</td><td>更强多步任务与跨机体学习,可与工具调用(如Search或自定义函数)联动完成复杂链路。</td><td>否</td></tr><tr><td>Gemini Robotics-ER 1.5</td><td>2025.09</td><td>Embodied Reasoning,具身推理。不直接控肢体,负责空间理解/规划/决策与工具调用,向VLA下达高层指令</td><td>理解环境-制定计划-估计进度与成功率;可原生调用工具,支撑长链路任务;与VLA协同提升泛化</td><td>否</td></tr><tr><td>Gemini 2.5 Flash/Lite</td><td>2025.09</td><td>NA</td><td>更新版本,有更好的指令遵循能力,更简洁的输出和更强大的多模态和翻译能力,更好的智能体工具使用。</td><td>否</td></tr><tr><td>Gemini 3 Pro</td><td>2025.11</td><td>NA</td><td>Gemini 3Pro的亮点:1)多模态理解能力。目前视频生成还没有和LLM有机统一,但是多模态理解已经成为Gemini的强项。2)生产力落地能力(也是Agent能力)。Gemini 3Pro在整个模拟的一年运营中保持了一致的工具使用和决策制定,推动了更高的回报而不偏离任务。</td><td>否</td></tr></table> 资料来源:Google官网、华泰研究 # Transformer 架构依然主流,Diffusion 值得关注 当前全球大模型仍以Transformer的decoder-only架构为核心主流。尽管近年来陆续出现如Mamba、KAN等新型网络结构,但尚未在工程实践中形成主导地位,Transformer体系依旧占据核心位置。我们认为,在可预见阶段内,Transformer仍将是大模型研发与优化的基础框架,其生态与工具链优势将继续巩固主导地位。 图表4:当前全球大模型仍以Transformer的decoder-only架构为核心主流 资料来源:《Harnessing the Power of LLMs in Practice: A Survey on ChatGPT and Beyond》, Yang (2023)、华泰研究 我们认为,未来仍可能出现替代Transformer的新型架构。尽管Transformer自2017年提出以来已成为主导范式,但其真正获得全球关注与验证是在2023年底ChatGPT问世之后。回顾这一历程可以发现,技术范式的更替往往具有滞后性,新的架构或已在研究阶段出现,只是尚未进入广泛应用周期。我们认为,随着模型规模、算力利用和推理方式的进一步演进,未来在特定时间点上,或将出现性能与效率兼备、并能超越Transformer的新一代主流架构。 Diffusion架构正被重新审视,其在生成领域的应用边界正逐步扩展到文本领域。Diffusion架构本身并非全新技术,主要用于图像与视频生成。2024年初Sora的发布,展现了Diffusion与Transformer结合的潜力,显著提升了视频生成的一致性、分辨率及时长表现。25年5月,Google首次尝试将Diffusion算法用于文本生成,发布Gemini Diffusion预览版,字节随后也推出Seed Diffusion以跟进相关方向。Diffusion的优势在于Token生成速度快(字节Seed Diffusion专门用于代码生成,其推理速度达到2,146 token/s,比同等规模的自回归模型快5.4倍),且生成后可进行精细化修改,而Transformer基于Next Token Prediction的生成方式则缺乏这种可回溯调整能力。我们认为,尽管Diffusion能否取代Transformer成为主流尚待验证,但其在头部厂商中的探索已具前瞻意义,值得持续关注。 图表5:Google Gemini Diffusion 资料来源:Google官网、华泰研究 图表6:字节Seed Diffusion Preview 资料来源:字节官网、华泰研究 # Scaling Law 2.0 下,中美模型迭代的差异化路径 # Scaling Law 2.0 含义更加丰富,数据、算力持续攀升 “Scaling Law”作为Transformer体系的核心逻辑,正从单一阶段演进至多阶段范式。早期的Scaling Law主要聚焦于预训练阶段,通过扩大模型参数、数据规模、算力规模实现性能提升,可称为1.0阶段;而自2024年9月OpenAI发布o系列模型以来,强化学习被系统性引入后训练流程,标志着Scaling Law进入2.0阶段,即在后训练环节继续扩大算力与数据投入,使模型在强化学习中形成可扩展的能力增益。进一步地,在推理阶段,模型通过思维链(Chain of Thought)方式开展推理,用户可在实际使用中使用更多算力以延长思考时间、生成更多token,在推理中充分释放已习得的强化学习能力。我们认为,这种从预训练到后训练再到推理端的全链路扩展逻辑,构成了当前大模型性能演进的主线框架,也是2025年黄仁勋在GTC大会上所强调的关键趋势。 图表7:OpenAIo系列模型带来ScalingLaw2.0 资料来源:OpenAI官网、华泰研究 图表8:ScalingLaw的三层递进 资料来源:GTC 2025、华泰研究 # 大模型训练数据量持续提升 训练数据Token规模持续走高。据ArtificialAnalysis统计,典型开源模型的训练数据常见在10-15万亿tokens,被视为可免费获取并高质量清洗后的网络数据量级。头部厂商通过新增标注与合成数据等方法持续扩容训练数据tokens,新近模型的训练tokens继续上行:例如阿里Qwen系列由18万亿(24年9月Qwen2.5)提升至36万亿(25年4月Qwen3),Meta在训练Llama4Scout时引入部分社交数据,使总体训练数据约达40万亿。我们认为,随“垂类”数据与新标注数据的不断累积,训练tokens仍将增加,且从模型泛化性和性能表现来看,OpenAI、Google等头部模型的训练规模或高于公开口径。 图表9:大模型训练数据量从15T tokens提升到30T以上 资料来源:Artificial Analysis、华泰研究 # 训练算力与训练成本保持快速增长 从全球前沿模型的训练趋势来看,算力投入的增长仍是推动大模型性能演进的核心动力。根据 Epochach AI 在《Training Compute of Frontier AI Models Grows by 4-5x per Year》中的测算,2010 年至 2024 年间,具代表性的前沿模型训练所需算力的年均增长倍数约为 4-5 倍。这一趋势在主要科技企业的旗舰模型中表现一致,显示出业界对算力扩展的持续依赖。值得注意的是,最头部的语言模型的增长趋势更快,在 2017 年 6 月至 2024 年 5 月期间,其增长速度高达每年 9 倍。从 2025 年发布的新前沿模型来看,仍然没有放缓。总体判断,在当前阶段,算力仍是大模型能力演进的底层约束与增长引擎,其年均 4-5 倍的扩张速度构成了行业发展的核心节奏。 图表10:前沿人工智能模型的训练计算量大约每六个月翻一番 资料来源:EpochAI、华泰研究 # 海外押注预/后训练,国内注重效率提升 # 海外:xAI持续践行“大力出奇迹”,紧抓后训练和强化学习 Scaling Law 2.0 以“后训练+强化学习”为核心路径,Grok迭代验证该方向。围绕xAI的发布节奏可见Scaling Law侧重的迁移:Scaling Law1.0阶段,对应xAI自Grok2到Grok3的迭代,主要通过将预训练算力扩大约10倍带来性能跃升;Grok3的推理模型标志着Grok模型进入后训练阶段;至Grok4发布,其后训练(Reasoning)相较Grok3再度将算力放大约10倍,使得后训练算力需求接近预训练。从目前头部模型迭代进度看,后训练的算力需求还有可能继续增加。据xAI官网,Grok4依托20万卡级别的Colossus大规模集群进行训练,因此,持续扩大后训练的模式与海外更高密度算力核集群禀赋相匹配。我们认为,Scaling Law2.0体现出算力重心由预训练向后训练与推理环节迁移,并对高密度集群供给提出更高要求。 Grok 4.1 在强化学习奖励范式上引入 Agent 模型奖励,并继续在后训练算力上有数量级提升。Grok 4.1 延续“预训练+强化学习”的总体路径,但在后训练环节进行了关键范式调整。据 xAI 官网,本次迭代沿用了 Grok4 的大规模强化学习基础设施,并针对强化学习中不可直接验证的奖励信号进行了优化,采用具备 Agent 推理能力的模型作为奖励模型,使系统能够实现自动化评估与响应迭代。Grok4.1 在偏好度测试中达到 $64.78\%$ ,呈现出更符合用户交互偏好的输出特征。xAI 训练团队在 X 平台亦指出,其后训练强化学习规模相较 Grok4 扩大了一个数量级,结合更强推理能力的奖励模型,使模型在真实对话偏好学习、自主评分与反馈循环中持续改进。 图表11:Grok模型的演进对应了ScalingLaw的1.0到2.0阶段 资料来源:xAI官网、华泰研究 图表12:xAI训练团队在X平台指出Grok-4.1后训练算力有数量级的提升 资料来源:X平台官网、华泰研究 # 国内:阿里、DeepSeek创新性架构优化,抓住Attention本质 国内算力受限背景下,模型迭代更依赖架构层创新。相较于海外依托NVIDIA最新GPU构建10万至20万卡级超大集群的条件,国内在算力基础设施上仍存在差距。在此约束下,基础模型的发展更需通过架构优化提升效率。从当前技术演进看,Transformer架构在中短期内仍将是主流,其核心算法Attention机制(通过计算Tokens间相关性以预测最优输出),构成了模型性能的关键环节。因此,国内头部厂商普遍聚焦于Attention层面的优化与创新,其中以阿里的Qwen系列与DeepSeek的模型为典型代表。我们认为,在算力约束难以短期突破的情况下,架构创新与算法精炼将成为国内基础模型竞争的主要方向。 Qwen3-Next 延续 Scaling 大方向,通过 Attention 优化提升长文本与大参数效率。阿里为进一步增强模型在长上下文与大规模参数条件下的训练及推理效率,其 Qwen3-Next 在保持 Transformer 与 MoE 总体框架不变的前提下,主要改进了:1)引入“75%线性注意力+25%传统注意力”的混合机制,在兼顾长文本效率与记忆精度间取得平衡;2)显著提升稀疏化程度,80B 总参数仅激活约 3B,激活率约 $3.7\%$ ,推理效率明显改善;3)扩大 MoE 专家数量至 512 个,为前代的两倍;4)采用多 Token 预测机制,提高训练与推理并行度。我们认为,Qwen3-Next 的创新体现出在 Scaling 框架下通过细粒度结构优化实现性能与成本的再平衡,这类“细节创新”或将成为后续国内大模型迭代的主要演进路径。 图表13:Qwen3-Next 通过 Attention 优化提升长文本与大参数效率 资料来源:Qwen官网、华泰研究 DeepSeek V3.2 引入 Dynamic Sparse Attention,训推效率再次有了大幅提升。DeepSeek V3.2-Exp 在性能上与上一版 V3.1-Terminus 差距不大,并将 V3.2 定位为“迈向新一代架构”的中间步骤。V3.2 最大的进步体现在 DSA(Dynamic Sparse Attention)的引入,模型训练与推理效率显著提升,相比上一代模型 API 输入与输出成本分别下降约 $50\%$ 与 $75\%$ 以上(推理成本)。DSA 的核心优化集中在 Attention 机制层,通过算子级与内核级的工程化重构,在长上下文任务中显著压缩训练与推理开销,同时尽量保持模型性能稳定,延续了以架构精修换取综合效率提升的技术路线。我们认为,该版本体现出在算力约束下的务实取舍,既为后续架构演进奠定技术基础,也展示出国产模型在底层优化方面的持续积累。 图表14:DeepSeek-V3.2-Exp相比V3.1-Terminus在不同长度位置Token的推理成本显著降低 资料来源:DeepSeek官网、华泰研究 DSA 实现长上下文推理的高效稀疏化。V3.2-Exp 在原 V3.1 架构基础上新增的结构改动为 DSA,旨在显著提升长上下文的训练与推理效率。其基本思路是采用“先粗筛、后精算”的双阶段注意力机制:通过一个轻量索引器(Indexer)先对历史 tokens 进行快速筛选,选出最可能相关的 Top-k 候选,再由主注意力模块进行精细计算,从而将复杂度由 $O(L^2)$ 降至 $O(Lk)(k \ll L)$ ,文本越长节省越显著。索引器虽维持 $O(L^2)$ 复杂度,但因采用更少注意力头、轻量化 FP8 计算及优化实现,使端到端推理显著加速。我们认为,DSA 标志着国内 Attention 机制从全密集计算向动态稀疏推理的转折,是长上下文方向的重要突破。 图表15:DeepSeek-V3.2-Exp NSA注意力架构 资料来源:DeepSeek官网、华泰研究 # AI算力:推理范式跃迁驱动全球算力建设进入新加速点 # 从推理范式看算力需求扩张节奏 用户×时长×深度:全球算力需求的三角模型 AI时代的推理需求由三个变量决定:用户数量 $\pmb{x}$ 用户使用时长 $\pmb{x}$ 用户使用深度。综合来看,AI推理正从用户端、模型端、任务形态全面拓展,新型的推理范式不断出现,全方位驱动算力需求的扩张。 图表16:推理需求的三个变量 资料来源:华泰研究 1、首先从用户数量的角度,AI应用使用人数进入快速渗透阶段,Chatbot逐步成为新型的基础应用。1)根据OpenAI开发者大会,OpenAI周活跃用户数量(WAU)延续高速增长态势,10月份WAU已达8亿,显著高于年初水平,根据Semrush数据,OpenAI已经成为全球访问量第五大的网站;2)根据GoogleFY26Q2业绩会表述,AIOverview的月活数量已经达到20亿人,Gemini10月份的月活数量已达到6.5亿,成为全球第二大的C端AI Chatbot产品;3)B端来看,根据Microsoft业绩会最新数据,FY26Q1Copilot总用户数已经达到1.5亿人,上个季度数据为1亿,季度环比增速达到 $50\%$ 。由此可以看出,AI用户的渗透率处于快速增长阶段,以Chatgpt为代表的AI Chatbot类产品已逐步成为新型的基础应用。 图表17:OpenAI WAU(周活跃用户)持续增长 资料来源:OpenAI,华泰研究 2、从用户使用深度的角度,AI产品正从通用问答工具向具有推理、记忆与决策能力的复合型智能体演进。Reasoning Model、Deep Research、Agent等产品在快速渗透,例如,根据OpenAI CEO Sam Alterman公开表述,GPT-5发布后Reasoning Model的渗透率显著提升,复杂任务的推理调用频次显著上升。同时,Google AI Mode具备问题拆解、深度推理功能,系统会将其拆分为多个子问题、多个查询,分别检索,然后整合成答案,输出更加详细聚合的答案,Google管理层在财报会上强调AI Mode已面向更多国家和地区推广落地使用。我们认为,模型深度推理能力的增强直接拉动算力需求的提升,推理模型/Deep Research/AI Mode等产品相比于Chatbot对于算力的需求带来几十倍的拉动。 图表18:Google AI Mode 通过更多推理提供更详细的搜索结果 资料来源:Google官网,华泰研究 3、从使用时长的角度看,AI正在从“被动响应”向“主动运行”转变,推理时间被大幅延展。OpenAI新推出的Pulse产品允许模型在用户闲置期间自动搜集资料、整理知识与进行离线学习,实现了计算时长的持续积累。这意味着AI不再只在用户输入时触发计算,而是进入“常开推理”状态,大幅拉升算力利用率。同时SamAlterman的在BG2的访谈中提到,今年Agent的迭代目标是实现智能体可“离开去做事”,再回来接受用户的引导,今年有望发布可跑数天的编码智能体。我们认为,随着更多实时生成、连续学习及多模态交互类应用(如视频生成、虚拟助理)的普及,未来AI推理将从短时任务型向长时运行型转变,计算需求有望迎来数量级增长。 图表19:OpenAI Pulse可实现闲时推理思考,主动推送 资料来源:OpenAI官网,华泰研究 # 新应用范式下,Token消耗量的展望 以 Google 为代表的云大厂 Token 消耗量持续增长。根据 Google FY26Q3 业绩会表述,google 10 月份 Token 消耗量达 1300 万亿。从不同应用的占比结构来看,我们认为其主要分布在:AI 搜索(AI Overview+AI Mode)、Gemini、API 调用、多模态(Veo 3、Nano banana)、Workspace 等,目前 C 端仍是 Token 调用的主要驱动。从增速来看,根据 5 月份 Google IO 大会表述,Google 4 月份 token 消耗量达 480 万亿,Q2 业绩会声称 7 月份这一数字为 980T,最新数据来看 token 增长的斜率有所放缓,我们推测有几个原因导致:1)此前 token 消耗量的高增长主要来自于 AI overview,随 AI overview 的触发比例达到较高水平,边际拉动有所减弱;2)对于云厂商而言,token 为其成本项,而目前的 token 消耗主要由免费应用所推动,经历前期快速拓展用户后,云厂越来越考虑其投入产出比,寻找高价值的商业化路径,追求 token 消耗的性价比;3)从供给端来看,Google 业绩会提到目前云计算仍处于供不应求的状态,Google 正处于 TPU v6 到 v7 的切换过程,供给端也在一定程度上也压制了 token 的增速。 图表20:海外云厂商 token 消耗情况 资料来源:google业绩会、微软业绩会,华泰研究 展望未来,模型与云大厂的重心越来越多的放在对于高价值商业化场景的优化与探索上。展望未来AI应用拓展方向,模型与云厂商已经在一定程度上完成了用户的接受度教育,发力重心越来越多的放在了寻找高价值商业化的角度,在这个过程中高价值ROI可衡量的应用的拓展将持续驱动token消耗量的提升。 以 Google 为例,展望未来 Token 增速仍将保持较高水平,我们认为以下为关注的重点: 1)Al mode 成为 AI 搜索的下一阶段的新范式,带动用户使用深度的提升:Al mode 的提出使得 AI 搜索从过去的单纯完成用户问题的搜集转变向多任务拆分、信息深度推理的新范式。同时,Al Mode 将依托 Google Search 的流量入口实现 Gemini 驱动的 AI 应用向更多用户的渗透,Al Mode 将成为 Google General Agent 的载体,接入众多 MCP,实现 Agent 生态的打通,为用户的日常生活提供智能服务,例如 Google 在 Al Mode 中加入智能购物的功能,用户可以通过描述需求实现商品推荐、智能比价,同时 Google 正在测试“代理结账”(agentic checkout)功能,允许用户设定价格阈值,AI 监控商品波动,一旦符合预算,便自动在商家网站下单,使用 Google Pay 完成支付。 图表21:Google AI Mode 对话式购物功能 资料来源:Google官网,华泰研究 2)多模态应用的推广将带来更大的 token 消耗与算力需求。多模态已被证明是商业化较快的领域,Google Veo3 视频生成模型、Nano Banana 图片生成模型也将成为 Google 未来拓展的重点。多模态 tokens 的调用量将远大于纯文本的交互,未来多模态的拓展也将成为总 tokens 增长的重要驱动。 # 合作模式创新:数据中心建设节奏进入新加速点 # OpenAI多项合作为未来算力建设提供指引 OpenAI目前已签订的合作项目达36GW,为未来算力建设规模提供指引。9月底以来,OpenAI与英伟达、AMD、博通等主流算力厂商均达成了远期的大规模合作项目。其中包括与英伟达合作的10GW算力集群(基于英伟达Vera Rubin平台,首期1GW目标在2026年下半年开始交付),与博通合作的10GW的Asic项目(预计2026年第一批OpenAI Asic开始交付),与AMD合作的6GW的合作项目(基于Helios机柜产品,预计2026年下半年开始交付),以及之前与Oracle、软银及中东等各主权国家达成的10GW左右的Stargate项目(阿比林项目预计明年投入运营,其他集群正在交付过程中)。除此之外,OpenAI已与北美三家大型云厂商微软、Google、AWS均达成算力合作协议。从数据中心建设节奏来看,数据中心落地节奏正在加速。 图表22:OpenAI合作示意 资料来源:OpenAI官网、华泰研究 图表23:OpenAI产业链 资料来源:OpenAI官网、华泰研究 # 新型融资模式为算力建设提供资金支撑 云厂商开始利用杠杆进行数据中心建设。过去北美超大规模云厂商多采用自由现金流自建为主的模式,目前为加速算力供应上线,正逐步以算力租赁、算力债等多元化融资结构作为补充。例如根据Reuters报道,Meta采用项目融资与私募债作为资金补充来源,与BlueOwl、PIMCO等机构达成约270亿美元的大型融资安排,用于路易斯安那州等超大规模AI数据中心项目;Google在今年以来分别在美元市场发行约175亿美元、在欧洲市场发行约65亿欧元的公司债用于数据中心的建设;Oracle则通过银团贷款与企业债并行推进AI数据中心集群建设,据Reuters报道其整体债务方案规模接近380亿美元,其中包括约180亿美元的大型银团贷款,用于美国多地的项目开发。新型融资手段缓解巨额前期投入与长期收益周期之间的错配问题,也促使算力建设进入新的加速周期。债务融资并非现金流充沛的云厂商的常规融资模式,今年以来的多笔举债投资数据中心也在一定程度上引发对于海外AI泡沫的担忧,我们认为目前杠杆占整个数据中心投资比例处于较为合理的范围,应当理性看待。 图表24:CSP举债融资规模 资料来源:Bloomberg,华泰研究 图表25:北美四大CSP equity/debt比率 资料来源:iFinD,华泰研究 # 北美CSP厂商Capex持续上修 北美云厂商Capex持续扩张,25Q3环比提速,全年指引上修。CY2025Q3资本开支合计1134亿美元,同比 $+78.42\%$ ,环比 $+19.31\%$ 。CY2025Q3 Microsoft/Google/Meta/Amazon的资本开支分别为349、240、194、351亿美元,同比 $+75\% / + 84\% / + 111\% / + 65\%$ ,环比 $+44\% / + 7\% / + 14\% / + 12\%$ 。从各厂商表述来看,呈现出几个共同特点,1)指引持续上修,例如微软表示2026年资本开支增速将高于2025年;2)2026年需求强劲,Google、微软、亚马逊均表示2026年云业务将持续处于供不应求的状态;3)数据中心建设加速,微软与亚马逊表示未来两年内将数据中心规模扩大一倍。 图表26:北美云厂商Capex情况 资料来源:各公司公告,华泰研究 # 三大互联协同演进:高带宽、低延迟、跨区域 AI算力需求的扩张催生了三大互联需求。1)伴随单一集群的不断扩大,从此前的千卡集群,到如今的万卡,再到将来的几十万卡甚至百万卡集群,Scale-out层级的互联不断扩大。2)伴随AI推理需求的放量,张量并行、专家并行等并行策略对卡间通信与内存提出了更高的要求,Scaleup网络可以实现高带宽低延迟的数据传输与内存池化,成为推理放量后的必然选择。3)由于单个数据中心电力/散热等条件存在限制,Scaleacross互联可以使得多个数据中心跨越几十公里连接成一个统一的集群,打破单一数据中心在电力、功率与物理中心的限制。 图表27:AI算力需求扩张催生三大互联需求 资料来源:华泰研究 # Scale up协议走向开放,市场规模快速扩大 今年以来 Scale up 协议逐步走向开放化与多样化。过去来看,只有英伟达 NVLink、传统的 PCIe 占有主要的份额,今年以来海内外各开放协议与厂商其他专有协议落地加速,在不同厂商主导下涌现了一系列 Scale up 协议,包括 ESUN(基于以太网、OCP 大会提出)、SUE(博通主导)、UALink(AMD 等主导)、ICI 协议(Google 主导)、UB 协议(华为主导)、Eth-X(中国信通院等主导)等。各开放协议为未来多种多样算力卡的 Scale up 互联定义了可行路径。 图表28:目前主流的 Scale up 协议 <table><tr><td rowspan="2">GPU 互联技术</td><td rowspan="2">厂商</td><td rowspan="2">单通道带宽 (双向)</td><td rowspan="2">通道数</td><td rowspan="2">最大支持 GPU 带宽</td><td colspan="3">线缆长度</td></tr><tr><td>限制</td><td>客户采用情况</td><td>概述</td></tr><tr><td>PCIe 6.0</td><td>PCI-SIG(Intel)</td><td>16GB/s</td><td>1/2/4/8/1 6</td><td>256GB/s</td><td>-</td><td>英伟达B系列 (2025量产) 预计亚马逊 Trainium 3 (2025年末量产)</td><td>标准通用的互联技术(不仅用于GPU间 互联),当前最新PCIe6.0通过x16 接 口可实现256GB/s吞吐量</td></tr><tr><td>NVLink 5.0</td><td>NVIDIA</td><td>100GB/s (单链路双向)</td><td>18</td><td>1.8TB/s</td><td>19cm-92.5 cm</td><td>英伟达GB200 (2Q25量产) 英伟达GB300 (2H25量产)</td><td>NVIDIA私有协议,2025年ComputeX 大会提出NVLink Fusion将NVLink C2C推广。</td></tr><tr><td>UALink 1.0</td><td>开放组织 (AMD主导)</td><td>128GB/s、200GB/s</td><td>1/2/4</td><td>800GB/s</td><td>4m</td><td>预计AMD MI400系列 (2H26量产) 预计AMD MI500系列 (2027年量产) 预计亚马逊 (2027年)</td><td>24年10月,AMD、Intel、Meta、 Microsoft、Google、AWS在内的九家顶尖科技公司正式成立UALink 联盟</td></tr><tr><td>SUE</td><td>博通</td><td>200GB/s</td><td>1/2/4/8</td><td>1.6TB/s</td><td>10m</td><td>预计Meta MTIA (2026年量产)</td><td>2025年4月,博通在OCP大会上发布 Scale Up Ethernet(SUE)框架</td></tr></table> 资料来源:各公司官网、华泰研究 ScaleUp侧交换机规模快速增长,目前市场规模已超过ScaleOut以太网和InfiniBand市场总和,2028年市场规模有望达130亿美元。随着模型并行计算带来的带宽需求持续攀升,AI Scaleup机柜方案逐渐被市场验证(英伟达NVL72、华为384等),ScaleUP网络互联市场需求快速增长。根据Lightcounting数据,目前ScaleUp市场规模已超过ScaleOut以太网和InfiniBand市场总和,2028年有望达到130亿美元,其中包括以英伟达Feynman架构(2028)为代表的七代NVLink技术,以及新的SUE、UltraAcceleratorLink(UALink)规范,将提供一条从专有协议向200G/通道标准化的路径。同时据Lightcounting预测,到2028年,UALink交换机可能占据Scaleup交换机市场总量的 $20\%$ 图表29:Scale Up 交换机规模有望快速增长 资料来源:Lightcounting,华泰研究 # 单一数据中心限制驱动Scaleacross(DCI)扩展迅速 Scale Across(DCI、数据中心互联)市场规模增长迅速,跨DC训练与推理将具备可行性。Scale Across通过高速光网络连接分散的数据中心形成一个统一的计算集群,打破单一数据中心电力、散热与物理空间的限制,实现算力资源的跨区域协同,是Scale up/Scale out外更广的互联。英伟达也在今年8月份推出Spectrum-XGS交换机,通过优化以太网算法,实现跨几十公里、甚至跨城市的稳定互联,把多个数据中心“拼接”成一个统一的超级计算单元,一个整体的“AI工厂”。根据Marvell预测,DCI市场规模有望从2023年的10亿美元增长至2028年的30亿美元,24-28E CAGR达到 $25\%$ 图表30:DCI市场规模有望实现快速增长 资料来源:Marvell AI Day,华泰研究 总体而言,AI推理需求的持续放大叠加算力集群的加速扩建,使得全球算力建设进入新一轮扩张周期。需求侧的多维增长与供给侧的资本创新正形成良性循环,持续看好全球算力建设产业景气度持续向上。 # AI应用:“突破”加速,“蝶变”在即 经历2023-2025年的逐步迭代,AI应用2026年有望加速实现规模化放量。得益于模型、数据、工具的同步升级,全球AI应用经历产品打磨(2023年)、商业试点(2024年),正式进入规模化放量前期(2025年),并有望于2026年正式进入规模化阶段。1)产品化:2023年ChatGPT作为现象级应用,成功带动软件AI升级热潮,但此阶段受制于模型能力有限,AI应用多数仍为问答式应用,成熟度较低;2)商业化:2024年得益于基础模型能力升级(OpenAI发布推理能力较强的o系列模型),AI应用从问答式Chatbot向Agent升级,同时开启商业化试点推进;3)规模化:2025年AI应用进入规模化放量前期,2B应用加速实现存量客户覆盖,2C应用用户数及用户使用时长持续增长。我们认为,2026年全球AI应用有望加速规模化放量,全球AI产业商业化闭环的“最后一公里”有望构建完成。 图表31:2023-2025年AI应用演进历程复盘 应用类型 Chatbot Agent Multi-Agent 代表厂商 # OpenAI OpenAI的应用ChatGPT发布仅2个月突破1亿月活用户数 # Palantir Palantir凭借强大的数据处理能力迅速成为企业级Agent标杆厂商 # servicenow ServiceNow布局企业多Agent协同推出AI Agent Control Tower 代表模型 # OpenAI OpenAI发布GPT-4模型强化大模型多模态能力 # OpenAI OpenAI发布o1模型升级深度推理能力 # deepseek DeepSeek发布R1模型具备超高性价比优势 典型代表股价变化 以Palantir为例 资料来源:Palantir官网、OpenAI官网、ServiceNow官网、Bloomberg、华泰研究 AI应用目前处于规模化放量前期,面临工程化、商业化双重挑战。全球软件企业的AI收入占比仍处于低个位数状态,以Salesforce为例,截至25Q3公司AI相关ARR为14亿美元(公司电话会表述),约占公司总收入(公司25年总收入指引412亿美元)比重为 $3\%$ 我们认为,软件厂商AI收入占比偏低,业务放量有待进一步加速,相关厂商仍需解决工程化、商业化两大挑战。 1)工程化:从工程化角度看,AI应用厂商面临“数据治理”与“Agent可观测”两大挑战。数据治理旨在提升AI应用的成熟度与复杂度,单环节看,可通过数据治理提升数据质量,改善AI应用的准确度;多环节看,可通过数据治理清洗数据结构、统一数据标准,满足复杂场景下AI应用的数据需求;Agent可观测旨在解决AI应用的安全、合规、可溯源等企业级特性,此特性进一步激发了企业级Agent管控平台的搭建需求。 2)商业化:从商业化角度看,AI应用厂商面临“完善商业模式”与“拓展端侧载体”两大挑战。伴随AI应用的产品定位从“辅助人工”向“接替人工”转变,带动商业模式同步升级,海外Agent服务从“订阅付费”转向“用量/效果付费”,但新商业模式仍未成熟,标准化、透明化均有待提升;同时C端AI应用的载体拓展也是后续商业化空间打开的重点,当前C端应用仍以手机/电脑为终端载体,难以突破用户主动使用时长有限的限制。 图表32:AI应用面临工程化、商业化双重挑战 资料来源:OpenAI官网、ServiceNow官网、Palantir官网、a16z、华泰研究 全球AI应用厂商加速阻力“突破”,2026年AI应用“蝶变”在即。AI应用持续升级,全球厂商加速阻力“突破”。数据治理方面:应用厂商加快数据治理人才、产品布局,海外SaaS加快数据业务收购;Agent可观测性方面:应用厂商加快企业级AI中台布局,提供企业级Agent的部署、监控、管理全链路工具;Agent商业模式方面:用量付费模式持续推进,ROI进一步明确趋势下标准化定价有望形成;AI新终端方面:头部应用厂商看好AI终端入口,探索AI眼镜、AI穿戴设备等新端侧场景。我们认为,2026年AI应用的产业趋势逐步明朗,看好2B长流程应用、2C入口优势应用以及公有云服务商三类厂商的业务机遇。 # 2025年中国AI应用复盘:“刚需”和“重构” 2025年:AI大模型从概念验证走向规模化商用。2025年年初DeepSeekR1大模型的横空出世,成为了中国AI应用落地的里程碑事件,其最重要的意义在于完成了全民的AI教育。以生成式AI和AIAgent为代表的新兴技术,正从概念验证阶段迈向规模化商业应用。下半年在“人工智能+”国家战略的顶层指引下,中国AI应用进入了产业化加速发展的快车道。 AIGC能力突破驱动C端AI应用指数级提升。大模型在内容生成(图像、视频、文本)领域的能力突破,是驱动C端AI应用的直接动力。在短视频、游戏、设计等领域,AIGC实现了创作效率与个性化体验的指数级提升。从商业化进展来看,当前国内C端AI应用普遍面临着用户付费意愿较低、竞争激烈、变现难度大的困境,因此更多是互联网巨头之间的用户争夺战。 得益于技术及政策驱动,2025年成为中国企业级AI Agent应用的元年。政企客户能够低成本的推动AI在内部应用得益于技术和政策的双轮驱动。明确的IT预算和落地场景,驱动企业级市场成为AI应用商业化变现最快的领域。 技术层面:1)以DeepSeek R1、阿里通义千问为代表的国产大模型不断提升性能并开源;2)RAG(检索增强生成)技术的广泛应用。RAG结合向量数据库或知识图谱,已成为缓解大模型“幻觉”、提升信息准确性与可靠性的主流解决方案,也是大模型能够在对可靠性要求更高的企业级市场落地的关键进步。3)MoE架构成为构建超大模型的主流技术路径,大幅降低了超大模型在推理时的总拥有成本,成为大模型在企业端落地的关键一环;而模型轻量化技术(量化、蒸馏、剪枝)则推动AI能力向端侧迁移。 政策成为央国企和政府客户AI需求释放的关键催化剂。25年2月,国资委召开中央企业“AI+”专项行动深化部署会,启动了战略性高价值场景建设专项工作,并要求在编制企业“十五五”规划中将发展人工智能作为重点。8月,国务院发布《关于深入实施“人工智能+”行动的意见》,人工智能正式上升为国家战略高度,并重点强调了央国企和政府在AI应用领域的引领作用。 # 中国AI应用两大发展路径:巨头生态融合&垂类场景深耕 中国正逐步探索出自己独特的AI商业化路径。25年3月-4月份期间,国内政企客户蜂拥而上部署DeepSeek大模型或购买DeepSeek一体机。但随后发现,仅仅部署DeepSeek并不能真正解决实际问题,企业开始重新思考AI应用落地行之有效的路径。目前中国AI应用的发展路径已分为两条: 其一,科技巨头的“生态融合”。中国的B端AI Agent发展,并非由小而美的SaaS工具驱动,而是由阿里、字节跳动、腾讯、百度、华为等科技巨头依托其强大的云平台和产业生态,自上而下地向垂直行业渗透。互联网大厂/大型云服务商的核心优势在于:雄厚的算力基础设施、海量的多维数据和庞大的用户生态。互联网大厂在三大AI应用领域优势显著: 1)大厂能够提供从IaaS、PaaS再到MaaS的全栈技术支撑,性价比高、弹性灵活且安全合规。 2)对于需要海量用户数据形成飞轮或已深度嵌入企业流程的场景,大厂具有天然的渠道和数据壁垒。互联网巨头可以将AI能力嵌入到现有社交(AI推荐)、电商(AI导购)、内容等已有的庞大流量池中,通过AI赋能构筑坚固的护城河。 3)在通用办公场景中具备生态协同优势。大厂拥有较强的基础模型研发实力,且已将其深度整合到诸如操作系统、浏览器以及钉钉、企业微信等核心生产力工具里。在企业通用的AI助理、文档总结、代码生成、多语言翻译、会议纪要等场景中具备生态集成优势,能保障应用的集成体验、可扩展性与服务稳定性。 图表33:科技巨头AI布局 <table><tr><td>厂商</td><td>AI战略</td><td>核心产品/平台</td><td>典型应用场景</td></tr><tr><td rowspan="3">阿里巴巴(9988 HK)</td><td>“云+AI”双轮驱动,开源生态领跑者</td><td>·基础模型:通义千问(Qwen)系列(开源领跑者)</td><td>·电商营销:万相台无界版(Wan 2.5视觉生成/自动化投放)</td></tr><tr><td rowspan="2">战略重心在于“模型开源+云端算力”。通过“通义”全系列(Qwen 2.5/Max)的开源策略抢占开发者心智,旨在以模型带动阿里云算力消耗,构建中国最广泛的模型服务生态。</td><td>·MaaS平台:阿里云百炼(模型服务平台)</td><td>·企业服务:钉钉AI助理(文档摘要、会议纪要、低代码开发等)</td></tr><tr><td>·应用入口:钉钉AI助理、淘宝“问问”、夸克</td><td>·基础设施:异构算力调度、企业级专属模型定制</td></tr><tr><td rowspan="3">字节跳动(未上市)</td><td>“应用优先”,数据飞轮驱动</td><td rowspan="2">·基础模型/C端应用:豆包(Doubao)大模型及APP</td><td>·内容娱乐:抖音/TikTok视频流个性化推荐与特效生成</td></tr><tr><td rowspan="2">利用推荐算法和内容生态优势,推出C端超级APP豆包,通过高DAU反哺模型迭代。</td><td>·情感陪伴:豆包虚拟人对话、角色扮演</td></tr><tr><td>·开发平台:扣子(Coze)(一站式Bot开发平台)</td><td>·视频剪辑:剪映/CapCut智能成片</td></tr><tr><td rowspan="3">腾讯控股(0700 HK)</td><td>“混元”底座,全生态业务“AI化”</td><td>·基础模型:混元大模型</td><td>·游戏开发:AI生成3D资产、NPC行为训练、反外挂</td></tr><tr><td rowspan="2">采取“实用主义”策略,将“混元”大模型能力无缝嵌入微信、游戏、广告三大核心造血业务中。</td><td>·应用工具:腾讯会议AI、企业微信接口</td><td>·社交娱乐:微信公众号/视频号评论区AI互动与摘要,朋友圈广告AI精准投放</td></tr><tr><td>·C端入口:腾讯元宝(深度集成微信生态)、微信输入法AI版</td><td>·AI SaaS:腾讯会议AI(实时翻译/纪要)、腾讯文档</td></tr><tr><td rowspan="4">百度集团(9888 HK)</td><td>全栈自研,应用全面重构</td><td>·基础模型:文心一言(ERNIE 4.0)</td><td>·智能搜索:对话式搜索、生成式结果页</td></tr><tr><td rowspan="3">坚持“芯片-框架-模型-应用”四层架构的自主可控。战略核心是将搜索、地图、文库等数亿级用户产品用AI原生思维重构,并全力押注自动驾驶的商业化变现。</td><td>·开发框架:飞桨平台</td><td>·自动驾驶:Robotaxi在武汉/北京的大规模商业化运营</td></tr><tr><td>·MaaS平台:百度智能云-千帆大模型平台</td><td>·办公提效:文库PPT生成、智能研报分析</td></tr><tr><td>·自动驾驶:Apollo Go(萝卜快跑)</td><td>·数字人:百度灵曦数字人直播、营销服务</td></tr><tr><td rowspan="4">科大讯飞(002230 CH)</td><td>“平台+赛道”,软硬一体化落地</td><td>·基础模型:讯飞星火认知大模型</td><td>·K12教育:AI精准学、作文批改、口语陪练(C端营收核心)</td></tr><tr><td rowspan="3">避开通用大模型的烧钱混战,专注于大模型在教育、医疗等优势垂直领域的深度变现,AI学习机、翻译机等智能硬件表现亮眼。</td><td>·垂直应用:iFlyCode(智能编程助手)</td><td>·AI医疗辅助诊断:智医助理(辅助全科医生诊断)</td></tr><tr><td>·核心硬件:AI学习机、智能办公本、智能录音笔</td><td>·企业代码:企业内部代码补全与系统重构</td></tr><tr><td></td><td>·语音交互:汽车智能座舱语音助手</td></tr><tr><td rowspan="3">华为(未上市)</td><td>“算力底座”,赋能千行百业</td><td>·基础模型:盘古大模型5.0</td><td>·政务/城市:城市治理大模型、气象精准预报</td></tr><tr><td rowspan="2">避开C端混战,专注于G端(政府)和B端(大型国企)的“算力+行业模型”服务。通过“昇腾+鲲鹏”构建国产算力底座,解决核心领域的卡脖子问题。</td><td>·算力底座:昇腾(Ascend)AI处理器、CANN</td><td>·工业制造:矿山大模型(无人采矿)、气象预报、铁路故障检测</td></tr><tr><td>·框架:MindSpore(昇恩)</td><td>·端侧智能:手机端侧小模型(小艺助手)</td></tr></table> 资料来源:公司公告,华泰研究 其二,垂类的“场景深耕”。即在办公、营销/销售及教育、法律、金融、医疗等专业领域,凭借对用户需求的深刻洞察,打造出体验卓越的AI原生工具/产品,占据细分市场的龙头位置。与美国相比,中国AI应用发展呈现出鲜明的"场景驱动"特征:技术为场景服务,产品迭代速度优先于底层创新。2025年中国AI应用落地路径更为务实,更多集中在“刚需”(安全合规、降本增效)和“流量变现”(如广告、电商)这两个确定性较高的领域,安全可控和ROI成为企业客户落地AI应用的核心考量因素。 中国AI应用落地节奏:高容错率、高ROI、数字化基础好的场景/行业落地更快 AI+场景:高容错率、效果可量化、数据闭环短的场景落地节奏更快 1)高容错率:由于大模型无法保证输出结果 $100\%$ 准确,因此“高容错”场景是企业部署AI应用优选的切入点,因为AI产生的错误不会导致灾难性后果(如生命安全、巨额资金损失),如 $\mathsf{Al} + \mathsf{C}$ oding、智能客服、CRM、营销/销售、HR、办公等领域。而对于准确性要求高的场景,如医疗诊断、自动驾驶等领域,容错率极低,落地周期长。“人机协同”则是更优选择,AI作为辅助角色完成大多数重复、繁重的基础工作,最终决策由人来完成。 2)效果可量化:AI带来的价值能够清晰量化的场景AI落地更快,如“将客服人力成本降低 $50\%$ ”、“将代码编写效率提升 $30\%$ ”、“将电商素材生成速度提升10倍”,这些ROI清晰可见,客户才愿意买单。 3)数据闭环短:场景本身能快速产生反馈数据,反哺模型,形成数据飞轮。如电商推荐、搜索引擎、内容平台,用户的每一次点击、滑走都是即时反馈,模型迭代极快,相较而言,工业制造的数据反馈周期长(产品要卖出去才知道好坏),落地相对较慢。 图表34:AI应用落地节奏:场景 <table><tr><td>序号</td><td>核心场景</td><td>AI应用环节</td><td>2025年进展</td><td>代表公司(A/H股)</td></tr><tr><td rowspan="3">1</td><td rowspan="3">AI+Coding</td><td>•编码:代码自动补全、自然语言生成代码</td><td>从"Coplite"到“独立开发者”:</td><td rowspan="3">卓易信息、深信服、科大讯飞等</td></tr><tr><td>•测试:单元测试用例生成、Bug自动检测与修复</td><td>1. Agent自主编程:对于简单的模块,AI能独立完成“需求分析-编码-测试”闭环。</td></tr><tr><td>•维护:老旧代码解释、技术文档自动生成</td><td>2.存量代码重构:银行/国企利用AI大规模迁移几十年前的老旧系统代码,效率提升数倍。</td></tr><tr><td rowspan="2">2</td><td rowspan="2">AI+客服</td><td>•接待:多轮语音/文本对话、意图识别、情绪安抚</td><td>1. 多模态交互:语音延迟改善明显,AI能听懂方言和情绪,音色更加拟人化。</td><td rowspan="2">科大讯飞、天润云等</td></tr><tr><td>•辅助:坐席实时话术推荐、工单自动分类与摘要</td><td>2. 人机耦合:AI处理80%标准问题,复杂/投诉类问题无缝转接人工,并自动带入上下文。</td></tr><tr><td rowspan="2">3</td><td rowspan="2">AI+营销/销售</td><td>•内容:千人千面的海报/短视频脚本/种草文案生成</td><td>1. 内容工业化:一张海报、一篇推文的生成成本趋近于零,实现全渠道销量。</td><td rowspan="2">迈富时、易点天下、焦点科技等</td></tr><tr><td>•获客:销售线索清洗、潜客意向评分、SEO优化</td><td>2. 销售Agent:B2B场景中,AI不仅写邮件,还能主动根据客户回复调整跟进策略,充当“SDR(销售开发代表)”。</td></tr><tr><td rowspan="3">4</td><td rowspan="3">AI+办公</td><td>•文档:会议纪要生成、文档润色/扩写/摘要、跨格式转换 (Word转PPT)</td><td>从“文档工具”到“个人助理”:</td><td rowspan="3">金山办公、福昕软件、泛微网络、致远互联等</td></tr><tr><td>•知识库:企业内部知识库问答 (RAG)、政策检索</td><td>1. RAG普及:解决了大模型幻觉问题,企业内部不再用搜索框,而是用对话框查找一切资料。</td></tr><tr><td></td><td>2. 行动力增强:AI不仅能读写,还能帮用户发邮件、订会议室、填报销单。</td></tr><tr><td rowspan="3">5</td><td rowspan="3">AI+HR</td><td>•招聘:JD自动生成、简历智能解析与人岗匹配、AI视频面试初筛</td><td>从“匹配”到“替代初面”:</td><td rowspan="3">北森控股、同道猎聘等</td></tr><tr><td>•服务:7x24h员工政策问答(社保/休假)</td><td>1. 面试Agent化:针对蓝领和校招,AI数字人面试官已完成90%的初筛工作,并自动生成评估报告。</td></tr><tr><td>•培训:个性化培训课程生成、陪练机器人</td><td>2. 员工服务自动化:SSC(共享服务中心)人力大幅缩减,AI接管绝大多数内部咨询。</td></tr></table> 资料来源:相关公司公告,华泰研究 # AI+垂直行业:数字化基础好、高且清晰的ROI、高付费意愿的行业落地节奏更快 1)高数字化基础:AI落地快的行业,拥有海量、高质量、专有的历史数据沉淀(Corpus),且业务流转本身即为数据流转,如法律、电商、游戏等行业。AI应用落地的前提是完成企业自身的数据仓库、数据治理和宽表建设等基础工作,企业自身的数据基础决定了AI应用项目的落地周期。 2)高且清晰的ROI:B端企业只会为高价值、ROI清晰的技术买单,AI的投入是否能直接折算为人力成本的节省或销售额的提升是AI能否快速落地的核心因素。如跨境电商中AI客服可以减少N名外语坐席成本;财税行业中AI会计Agent可以节约N名会计人员等。 3)高付费意愿:AI落地快的行业往往面临激烈的内卷竞争或存在非常强的外部合规压力。如教育行业,中国家长对提分产品的价格敏感度较低,付费意愿非常高;医药研发领域,研发周期缩短一个月意味着数亿美元的专利价值,药企面临“不投AI则掉队”的生存焦虑;金融领域存在强合规压力,金融机构必须投入大量预算以满足合规要求。 图表35:AI应用落地节奏:垂直行业 <table><tr><td>序号</td><td>垂直行业</td><td>AI应用领域</td><td>2025年AI应用进展</td><td>代表公司(A/H股)</td></tr><tr><td>1</td><td>AI+电商</td><td>·直播:AI数字人24h带货、即时互动</td><td>从“虚拟人”到“全自动店铺”:1)以假乱真:数字人主播在神态、口型上已难辨真假,且成本降至百元级/月。2)一人团队:通过AI Agent,一个人即可管理一家拥有数千SKU的跨境电商店铺。</td><td>遥望科技、吉宏股份、值得买、光云科技、聚水潭等</td></tr><tr><td></td><td></td><td>·运营:商品详情页自动生成、虚拟模特试衣、评论区自动维护</td><td></td><td></td></tr><tr><td></td><td></td><td>·选品:爆款趋势预测、竞品分析</td><td></td><td></td></tr><tr><td>2</td><td>AI+教育</td><td>·辅导:启发式讲题(苏格拉底式引导而非直接给答案)、个性化弱项诊断与学习路径规划·陪练:中英文口语对话实战、AI辩论/演讲训练·助教:教案/课件(PPT)-一键生成、作业/作文智能批改与点评</td><td>从“搜题”到“因材施教”:1)硬件为王(AI Pad):大模型全面植入学习机/词典笔,利用端侧算力(NPU)实现离线辅导,响应快且保护隐私。2)情感与素质:除了学科辅导,AI开始承担“心理咨询师”角色,关注青少年心理健康;并支持编程、美术等素质教育陪练。</td><td>科大讯飞、视源股份、佳发教育</td></tr><tr><td>3</td><td>AI+法律</td><td>·审查:合同风险自动比对、条款缺失预警</td><td>从“检索”到“推理”:1)专业级精准度:经过垂直训练的模型在合同审查上的准确率已超过初级律师。2)案头工作自动化:律师将更多时间用于庭审和策略,繁琐的文书工作大量交给AI。</td><td>金桥信息、通达海、华宇软件</td></tr><tr><td></td><td></td><td>·检索:类案检索与分析、法律法规库问答</td><td></td><td></td></tr><tr><td></td><td></td><td>·起草:标准法律文书(起诉书/律师函)自动生成</td><td></td><td></td></tr><tr><td>4</td><td>AI+零售</td><td>·供应链:销量预测与智能补货、动态定价(基于库存和竞争对手实时调价)</td><td>从“经验订货”到“算法决策”:1)即时零售优化:针对“30分钟达”场景,AI能精准预测社区级微小需求波动,降低生鲜损耗率。2)无人/少人店升级:基于视觉大模型的行为识别技术成本大幅下降,支持更低成本的“拿了就走”购物体验。</td><td>石基信息、多点数智、汇纳科技</td></tr><tr><td></td><td></td><td>·门店:货架陈列视觉巡检(识别缺货/摆放错误)、客流热力分析</td><td></td><td></td></tr><tr><td></td><td></td><td>·导购:会员精准画像与个性化优惠券生成</td><td></td><td></td></tr><tr><td>5</td><td>AI+税务</td><td>·申报:智能纳税申报、税收优惠政策自动匹配</td><td>1)合规刚需:随着金税四期全电发票推广,企业必须通过AI自动化处理海量票据,减少人工失误。2)智能审计:AI能即时发现报销舞弊和税务风险,审计从“事后”变为“事中”。</td><td>税友股份、航天信息、中科江南</td></tr><tr><td></td><td></td><td>·票据:OCR智能识票、发票验真与自动入账</td><td></td><td></td></tr><tr><td></td><td></td><td>·风控:异常财务指标预警、合规审计</td><td></td><td></td></tr><tr><td>6</td><td>AI+制造</td><td>·质检:AI视觉检测识别微小瑕疵(划痕/异色)、声纹检测</td><td>从“机器换人”到“工业大脑”:1)工业大模型下厂:专用的工业大模型部署在边缘侧,工人可以用自然语言查询设备维修手册或调试机器。2)视觉检测标准化:AI视觉检测不再需要针对每个零件重新训练大量样本,小样本学习能力让产线切换更灵活。</td><td>汇川技术、宝信软件、海康威视、中控技术</td></tr><tr><td></td><td></td><td>·维护:设备故障预测性维护(PdM)、工业参数自动寻优</td><td></td><td></td></tr><tr><td></td><td></td><td>·设计:工业零部件生成式设计、代码自动生成</td><td></td><td></td></tr><tr><td>7</td><td>AI+金融</td><td>·风控:信贷反欺诈(基于关系图谱)、交易异常监测、反洗钱</td><td>从“黑盒”到“可解释AI”:1)金融大模型(FinLLM):银行和券商已大规模私有化部署千亿参数模型,辅助分析师处理非结构化数据。2)虚拟理财经理:AI能基于客户复杂的财务状况,生成长篇的、合规的资产配置报告,服务长尾客户。</td><td>恒生电子、同花顺、宇信科技、长亮科技等</td></tr><tr><td></td><td></td><td>·投研:研报/公告自动摘要、舆情因子挖掘、宏观数据分析·理财:智能投顾(Wealth Copilot)、资产配置建议生成</td><td></td><td></td></tr><tr><td>8</td><td>AI+医疗</td><td>·药物研发:药物靶点发现、分子结构生成与筛选</td><td>从“辅助诊断”到“源头创新”:1)药物研发成果兑现:首批由AI设计的药物分子进入临床II期/III期,研发周期缩短30%以上。2)电子病历解放医生:AI通过录音和OCR自动生成标准电子病历,极大减轻医生文书负担。</td><td>晶泰控股、润达医疗、讯飞医疗科技、一脉阳光</td></tr><tr><td></td><td></td><td>·临床:病历自动结构化、临床试验受试者匹配</td><td></td><td></td></tr><tr><td></td><td></td><td>·影像:AI辅助读片(CT/MRI)输出初诊报告</td><td></td><td></td></tr></table> 资料来源:相关公司官微/公司公告,华泰研究 # 商业模式:私有化部署先行,订阅模式主要集中在轻量化场景 相比美国AI应用以SaaS订阅和API调用模式为主,2025年中国2B领域AI应用商业化最快的不是SaaS订阅模式,而是“私有化部署”和“行业项目制”,而订阅模式的AIAgent产品主要集中在轻量化场景中。中美AI应用商业模式差异较大,根本原因在于中国市场的核心客户结构、数据安全考量以及AI应用的集成复杂度与美国均有不同。 图表36:中国AI应用商业模式以“项目制”为主的主要原因 # 数据安全与合规的绝对优先权 - 中国AI应用主要买单方是政府(G端)、金融机构(F端)和大型央国企(B端)。 数据敏感性:这些客户的核心数据(如金融交易数据、政务数据、公民信息、企业核心经营数据)被视为最高机密的资产。 - 合规要求:法律法规(如《数据安全法》、《个人信息保护法》)对数据出境和数据处理有严格限制。将数据传输到公有云平台,尤其是外部大模型进行训练或推理,存在不可接受的数据泄露风险和合规风险。 - 客户要求AI模型和应用必须部署在本地服务器、私有云或指定的国资云上,实现“数据不出域”,确保物理隔离和绝对可控。 # 深度定制化与系统集成的刚性需求 - AI需要嵌入客户现有的复杂IT系统中才能真正作用。 - 异构系统集成:大型客户往往有大量陈旧的、复杂的、来自不同供应商的IT系统(如ERP、CRM、OA、生产MES系统等)。 工作流重塑:AI应用需要嵌入到客户特定的业务流程中。例如,银行的AI风控系统需要实时接入交易系统;政府的审批AI需要对接内部公文流转系统。 这种深度的“量体裁衣”式集成和流程定制,无法通过标准化的SaaS产品来满足,必须以“项目制”的形式,由供应商投入大量工程师进行现场开发、调试和集成。 # 客户结构与采购习惯 - 中国ToB/GIT市场的传统采购模式决定了AI的交付模式。G端和大型国企习惯于“项目制”采购,更倾向于一次性买断软件授权和硬件,后续支付较低的年度运维费用。此外,传统的招投标模式也更匹配项目制模式。 # B端应用场景尚未完全标准化 - “AI杀手级应用”仍在探索中。 市场缺乏标准AI产品:AI厂商难以提供一个能满足大多数客户需求的标准SaaS产品。 - 客户需要“交钥匙”工程:客户自己没有能力去使用一个AI平台或API,他们需要的是“交钥匙”工程,即厂商把AI能力、应用软件、硬件服务器、后续运维全部打包成一个项目交付。 资料来源:中国国信网,华泰研究 图表37:部分 AI 解决方案类公司 AI 业务进展 <table><tr><td>公司名称</td><td>AI 业务进展</td></tr><tr><td rowspan="2">第四范式</td><td>AI 布局:AI agent+垂类世界模型</td></tr><tr><td>进展:AI 驱动整体收入提速,24/25Q1/Q2/Q3 整体营收增速为 25.1%/30.1%/49.2%/31.4%;其中,核心先知 AI 平台 25Q1/Q2/Q3 收入同比增速分别为 60.5%/79.5%/67.6%。</td></tr><tr><td rowspan="3">能科科技</td><td>AI 布局:“AI+具身产品智能化”、“AI+工业研制智能化”及“工业软件+AI 助手”</td></tr><tr><td>进展:25H1 AI 业务收入 2.11 亿元,同比增长 145.6%,收入占比 28%(去年同期 18%);AI 业务毛利率从 2024 年的 39%提升至 25H1 的 47%。</td></tr><tr><td>25 年前三季度 AI 业务收入 3.35 亿元,营收占比 30.79%。AI 业务盈利能力提升驱动 25Q3 单季归母净利润同比+122.49%。</td></tr><tr><td rowspan="2">汉得信息</td><td>AI 布局:“灵猿”大圣 AI 中台、“灵手”业务智能体系列(已推出近百个成熟智能体,覆盖制造、营销、财务等多个业务领域)、“灵睿”垂直模型系列(物流、矿山、锂电等多个行业垂类模型)、ChatBI 3.0、AI 代码大模型</td></tr><tr><td>进展:AI 业务 25Q3 单季收入约 1 亿元,前三季度约 2.1 亿元。</td></tr><tr><td rowspan="3">鼎捷数智</td><td>AI 产品:雅典娜数智原生底座、InDepth AI 智能体平台;智能数据套件、企业智能体生成套件、四大工业软件(ERP、PLM、MES、WMS)</td></tr><tr><td>AI 智能套件、AIoT 指挥中心 & 工业机理 AI 套件;推出数十款 AI Agent 应用,全面覆盖企业“研发设计、生产制造、质量管控、经营管理、服务售后”五大领域。</td></tr><tr><td>进展:25H1 AI 业务收入同比增长 125.91%。</td></tr></table> 资料来源:公司公告,华泰研究 通用SaaS+AI:2025年仍处于产品发布和商业化变现初期。2025年,几乎所有的通用SaaS厂商(如ERP、CRM、OA、HR)都发布了AI解决方案和产品,如金蝶“苍穹GPT”、用友“YonGPT”、北森“AI面试官”等,但大多数AI产品和方案处于客户点状场景试用阶段,产品应用广度和深度仍有非常大的提升空间。对于通用SaaS厂商而言,2025年AI暂时还没有成为带动公司整体收入增长的引擎,而更多是SaaS厂商为应对AI大趋势而做的前瞻性战略布局,仍以投入为主。 图表38:部分 AI+SaaS 公司 AI 业务进展 <table><tr><td>所处领域</td><td>公司名称</td><td>AI 业务进展</td></tr><tr><td rowspan="2">AI+办公</td><td rowspan="2">金山办公</td><td>AI 产品:AI 改文档、AI PPT、灵犀语音助手、WPS 知识库;25 年 7 月发布 WPS AI 3.0 及办公智能体“WPS 灵犀”,产品从辅助工具向 AI Agent 演进。</td></tr><tr><td>进展:WPS AI 月活用户数快速增长,24年底1968万,25H1末2951万,25Q3加速增长。</td></tr><tr><td rowspan="2">AI+办公</td><td rowspan="2">福昕软件</td><td>AI 产品:面向复杂文档的 AI-Powered Research Agent(25H1 发布);云端文档 AI 自动化处理与内容分析;IDP(智能文档处理);智能文档处理中台。</td></tr><tr><td>进展:AI 作为辅助功能嵌入现有产品提升用户粘性;分类 IDP 已在政法系统、教育出版、审计等垂直行业落地。25年前三季度公司ARR 5.5亿,同比+50.6%;Editor 产品订阅费率达到 93%。Q3 核心业务营收同比+35.7%,加速增长。</td></tr><tr><td rowspan="2">AI+营销/销售</td><td rowspan="2">迈富时</td><td>AI 产品:AI-Agent Force 智能体中台 2.0,AI 销售助手、智能客服、外贸拓客专家、智能建站、跨境视频生成助理、销售陪练、智能招聘、经营分析智能体、经营决策智能体等 AI Agent 产品。</td></tr><tr><td>进展:25上半年,AI 及 AI Agent 相关收入达到 1.1 亿元;AI+SaaS 订单逐月加速。</td></tr><tr><td rowspan="2">AI+HR</td><td rowspan="2">北森控股</td><td>AI 产品:AI 面试官、AI 领导力教练、AI 陪练单独售卖;AI 招聘助手、学习助手等嵌入传统 SaaS 平台</td></tr><tr><td>进展:AI 战略 24 年 8 月启动,是 HR 行业 AI 商业化落地最快的厂商;FY25H1 AI 相关签约额约 2300 万(4-6 月 729 万,7-9 月接近 1500 万)。</td></tr><tr><td rowspan="2">AI+ERP</td><td rowspan="2">金蝶国际</td><td>AI 产品:苍穹 Agent 平台 2.0,AI 星空套件(AI 能力嵌入原有 SaaS 产品中),金钥财报(财报分析智能体)、ChatBl(企业问数智能体)、招聘智能体、差旅智能体、企业知识智能体。</td></tr><tr><td>进展:25H1,AI 相关合同金额已超 1.5 亿元(以 AI 中台项目为主);截至 Q3 末,金蝶云订阅服务 ARR 约 38.6 亿元,同比+18%。</td></tr><tr><td rowspan="2">AI+ERP</td><td rowspan="2">用友网络</td><td>AI 布局:企业服务大模型 YongGPT、数智员工 2.0、智友(智能交互)与友智库(企业知识库)、Yon Suite(搭载企业 AI 四维模型);公司在财务、供应链、营销等多领域嵌入 AI 解决方案。</td></tr><tr><td>进展:前三季度 AI 相关合同签约金额超过 7.3 亿元,其中 25H1 签约 3.2 亿,Q3 单季度签约超 4.1 亿元。</td></tr></table> 资料来源:公司公告,华泰研究 # 2026年AI应用投资策略:拥抱“确定性”,配置“真成长” 经过2025年的商业化探索,2026年中国AI应用有望正式进入业绩兑现期。资本市场对于AI应用的投资逻辑或将从基于预期的Beta行情,逐步转向基于业绩兑现的Alpha行情。总体来看,我们看好AI应用的三大趋势: # 趋势一:企业数据成为2BAI应用关键,看好长流程应用机遇 2B AI应用向复杂场景不断拓展,高质量企业数据成为AI应用的“核心驱动”。经历2023-2025年的逐步迭代,2BAI应用已经逐步从企业知识库、合同审查、文稿生成等简单场景,向供应链、财务、生产等复杂场景拓展,“应用复杂性”对应“数据复杂性”,2BAI应用场景复杂度提升,对于企业数据的质量、结构化程度、实时性、可追溯性提出更高要求,倒逼企业全面升级数据治理体系。AI变革下,企业若希望获得模型效果、业务效率与风险可控性的综合优势,必须将数据治理视为AI应用落地的“前置工程”与“长期工程”。 图表39:2B AI应用向复杂场景不断拓展 资料来源:OpenAI官网、ServiceNow官网、Palantir官网、Bloomberg、华泰研究 图表40:AI变革倒逼企业深化数据资产治理 资料来源:Palantir官网、华泰研究 企业数据成为2BAI应用的“制胜关键”,多类型厂商竞相发力,看好应用厂商的综合优势。AI变革下,企业数据已经从支撑业务系统的“生产要素”,演变为驱动模型表现和智能决策的“核心资产”。23年开始,海内外的公有云厂商、数据工具厂商、软件应用厂商均加紧企业级数据中台业务布局,旨在通过关键的“数据”卡位,拓展AI场景下的业务边界。 1)公有云厂商:云厂商以云数据库产品为依托,拓展数据中台布局;微软2023年5月推出MicrosoftFabric功能,打造全新的、综合性的统一数据分析平台; 2)数据工具厂商:数据工具厂商具备企业数据湖仓等产品基础,加紧AI场景下的功能升级;Snowflake24年6月推出SnowflakeCortex功能,为用户提供了直接在其数据平台内进行AI应用开发的能力,星环科技25年发布AIReadyPlatform,只在为企业级AI大模型提供高质量多模态数据底座; 3)应用厂商:应用厂商具备数据+业务流程的双重理解,有望成为软件从“流程驱动”向“数据驱动”转型下的核心受益者;Palantir的Ontology、Salesforce的Data cloud、ServiceNow的RaptorDB、鼎捷数智的雅典娜中台、汉得信息的H-ONE中台、金蝶国际的金蝶云·苍穹的功能定位均为企业级数据中台,旨在构建AI应用的底层数据基础。 图表41:公有云厂商、数据工具商、应用厂商发力数据中台产品 资料来源:各公司官网、华泰研究 图表42:海外SaaS厂商加快数据技术的并购整合 <table><tr><td>收购方</td><td>被收购公司</td><td>时间</td><td>金额</td><td>业务简要介绍</td></tr><tr><td rowspan="3">Salesforce</td><td>Own Company</td><td>2024年</td><td>约19亿美元</td><td>SaaS数据保护与备份/恢复(前身OwnBackup),强化数据安全与合规。</td></tr><tr><td>Zoomin</td><td>2024年</td><td>未披露</td><td>面向企业的非结构化知识文档数据管理与检索,增强Data Cloud与Agentforce的数据底座。</td></tr><tr><td>Informatica</td><td>2025年</td><td>约80亿美元</td><td>云数据管理与治理(ETL、数据目录、MDM等),用于强化Salesforce的数据与智能代理架构。</td></tr><tr><td rowspan="3">ServiceNow</td><td>Atrinet</td><td>2024年</td><td>未披露</td><td>电信网络数据/配置自动化与生命周期管理(网络“数据平面”编排)。</td></tr><tr><td>Raytion</td><td>2024年</td><td>未披露</td><td>企业搜索与数据连接器(跨多系统检索与知识管理),用于AI搜索/知识场景。</td></tr><tr><td>data.world</td><td>2025年</td><td>未披露</td><td>数据目录与数据治理平台,纳入ServiceNow AI平台以提升数据智能。</td></tr><tr><td>SAP</td><td>WalkMe</td><td>2024年</td><td>约15亿美元</td><td>数字化采用平台(DAP),基于使用行为数据提升流程与应用采用度,并与SAP AI/Signavio/LeanIX互补。</td></tr><tr><td rowspan="2">Workday</td><td>HiredScore</td><td>2024年</td><td>约5.3亿美元</td><td>利用多源人才与职位数据的AI人才编排与匹配。</td></tr><tr><td>Sana</td><td>2025年</td><td>未披露</td><td>企业知识库与生成式AI平台(面向知识/内容数据的组织与问答/代理)。</td></tr><tr><td rowspan="2">Snowflake</td><td>Datavolo</td><td>2024年</td><td>约1.10亿美元</td><td>开源/混合的数据集成与多模态数据管道平台,面向生成式AI数据工程。</td></tr><tr><td>Crunchy Data</td><td>2025年</td><td>约2.5亿美元</td><td>企业级PostgreSQL(数据库与运维工具),用于推出"Snowflake Postgres"并支撑AI/代理应用。</td></tr></table> 资料来源:Salesforce官网、SAP官网、ServiceNow官网、Workday官网、Snowflake官网、华泰研究 企业级长流程应用具备数据、流程、平台三大壁垒,看好AI转型下的受益趋势。1)数据与权限壁垒:海外平台级应用(SAP、ServiceNow等)多打通ERP、CRM、ITSM等环节,国内泛ERP厂商(用友网络等)同样贯通企业管理多业务流程,因此其业务系统深度接入企业内网、业务系统与数据仓库,具有天然的数据壁垒;2)流程经验壁垒:B端长流程应用针对企业个性化流程完成定制化改造,逐步形成了对于客户流程的Know-how,此壁垒在国内2B应用场景尤为突出;3)模型与工具协同壁垒:长流程应用多具备企业中台基础,AI变革下正加速构建统一“业务+数据+AI”的企业级Agent平台。 相关厂商梳理:Palantir、SAP、ServiceNow、Salesforce、金蝶国际、用友网络、能科科技、鼎捷数智、汉得信息、第四范式等。 图表43:长流程应用有望凭借“数据+流程”优势构建企业级 Agent 平台 资料来源:IDC、华泰研究 图表44:海内外长流程应用厂商业务布局概览 资料来源:Salesforce官网、SAP官网、ServiceNow官网、Palantir官网、金蝶国际官网、用友网络官网、华泰研究 # 趋势二:2C AI应用强调“入口”优势,头部厂商加快端侧布局 2C AI应用的竞争从“技术差异”转向“入口差异”,入口决定用户触达效率与渗透深度。早期2C AI应用包括AI搜索、AI图像、AI问答等众多分散式场景,各类应用的差异点多集中在底层模型的工程优化;伴随基础模型能力提升与头部厂商的“一站式”布局加速,能否打造入口级AI应用,成为2C应用的成功关键。通过入口级卡位,2C AI应用可以尽可能接近用户的自然使用场景,优先占领高频入口,解决用户日活时间极其分散的问题,降低获客成本和切换成本。同时,入口级卡位有望快速掌握用户行为数据(搜索、社交、创作、工作流),构建数据 $\rightarrow$ 模型 $\rightarrow$ 产品 $\rightarrow$ 数据的可持续飞轮。我们认为,大模型厂商及头部科技公司有望成为本轮“入口级”AI应用竞争的核心受益者,头部企业的2C布局持续提速。 图表45:2C AI应用逐步向入口级应用收敛 资料来源:各公司官网、华泰研究 # 2C入口级应用竞争加剧,大模型厂商/头部互联网企业/优势卡位厂商竞相发力。 1)大模型厂商:OpenAI将ChatGPT打造为“AIOperatingLayer”级入口,功能定位实现从文本对话 $\rightarrow$ 多模态交互 $\rightarrow$ Agent系统 $\rightarrow$ 操作系统级AI的拓展。目前ChatGPT已实现文本、图像、语音等多模态对话的有机整合,同时通过GPTStore、跨App调用(MCP协议)等能力搭建新一代“应用层入口”。根据OpenAI开发者大会介绍,2025年10月ChatGPT周活用户数(WAU)达到8亿,活跃用户数持续保持稳定增长。 图表46:25年10月ChatGPT的周活用户数(WAU)达到8亿 资料来源:OpenAI官网、华泰研究 2)头部互联网:互联网企业多依托已有的“超级入口”,实现2C AI应用的快速推广,形成“传统应用+AI”嵌入式绑定。Google将Gemini内嵌于Search、Chrome、Android、Gmail等核心入口,实现全球数十亿DAU的原生触达,截至25Q2 Google的AI搜索已覆盖20亿月活;Meta AI被直接嵌入Messenger、WhatsApp、Instagram三大超级入口,与用户每天最自然的对话场景紧密结合,截至25年5月Meta的Meta AI功能拥有超10亿月活;腾讯将元宝嵌入微信聊天、搜索等核心入口,后续有望拓展小程序、视频号、浏览器等全业务场景;阿里正式公测“千问APP”(25年11月17日),旨在构建融合购物、订票、办公、学习、健康等场景的2C超级入口。 图表47:Meta AI 月活用户数突破 10 亿 资料来源:affiliatebooster、Meta官网、华泰研究 3)优势卡位:除互联网流量优势之外,部分科技公司凭借独特“卡位”,加速产品AI升级。Apple以独特的端侧卡位(截至24年,苹果全球活跃设备超23亿台),为Apple Intelligence快速搭建了系统级入口,Apple Intelligence将通过Siri、Spotlight、iMessage、Photos等系统级入口与用户深度交互;Microsoft、金山办公卡位“办公入口”,实现AI办公助手的快速导入,Microsoft365Copilot月活超1.5亿(截至25Q3),金山WPSAI月活达到2,951万(截至25Q2),同时两家公司AI功能正逐步向协同办公、企业知识库等企业级场景延伸。 图表48:25Q2金山办公WPSAI月活数达到2,951万 <table><tr><td>百万</td><td>24Q2</td><td>24Q3</td><td>24Q4</td><td>25Q1</td><td>25Q2</td><td>25Q3</td></tr><tr><td>月活设备数</td><td>602</td><td>618</td><td>632</td><td>647</td><td>651</td><td>669</td></tr><tr><td>WPS AI用户数</td><td>/</td><td>/</td><td>19.68</td><td>/</td><td>29.51</td><td>/</td></tr><tr><td>覆盖率</td><td></td><td></td><td>3.11%</td><td></td><td>4.53%</td><td></td></tr></table> 注:金山办公仅24Q4、25Q2披露WPSAI月活用户数 资料来源:Wind、华泰研究 探索更前端入口,大厂加速布局端侧设备,新AI终端有望成为“AI互联网”提速关键。海外科技大厂以大模型为基座,全力打造“AIOS”,并加速拓展AI终端场景。以Meta为例,公司基于开源大模型Llama,打造系统级助手Meta AI,同时发力AI眼镜场景,25年9月发布首款带AR显示屏的AI眼镜Ray-Ban Display,尝试从“语音/图像感知+AI辅助”向“视觉+交互输出”转变。根据The information 25年9月19日报道,OpenAI正与供应商讨论制造多款硬件产品,新AI终端或将成为OpenAI“核心AI订阅+开源端侧生态”布局中的重要一环。我们认为,新AI终端有望进一步改变人机交互方式,使AI从“可调用”变成“随时可用”,同时有望最大化本地数据价值,推动AI互联网进入“深个性化时代”。 相关厂商梳理:Microsoft、Google、Meta、Amazon、Apple、阿里巴巴、腾讯、金山办公、福昕软件等。 图表49:海外大厂AI终端布局概览 资料来源:各公司官网、华泰研究 图表50:新AI终端有望成为“AI互联网”发展提速的关键 资料来源:a16z、OpenAI官网、华泰研究 # 趋势三:AI加速“云化”转型,云厂商受益趋势明显 AI变革对数据、算力、存储、网络等基础设施提出更高要求,全面加速企业云化进程。1)算力:无论是通用大模型还是企业专属模型,其训练与推理均呈现出“算力快速增长、需求不稳定、高并发”的典型特征,企业难以通过本地IT架构支撑巨量GPU集群、超大规模数据并发以及实时在线推理的负载;2)数据:AI应用需要整合跨部门、跨地域的数据资产,云成为承载数据融合的核心平台;3)安全:AI大规模落地需要大量安全、合规与治理工具,模型审计、数据主权、加密计算、访问控制、日志审计、责任追踪等安全能力已在主流云厂商中原生集成。我们认为,AI需求推动企业云化转型从过去的“成本选择”变成“战略必选项”,未来AI的大规模商业化将与企业云化进程进一步绑定。 云厂商作为基建环节优先受益,看好业绩持续性。海外AI下游需求释放节奏快于国内,云厂商业绩率先出现拐点,看好云化趋势下云业务收入持续放量。1)海外:Microsoft云业务增长自23Q3起提速,Google、Amazon云业务增速自23Q4起提速;截至25Q3,海外头部云厂商的云业务增速整体仍呈现提速态势,看好下游需求放量对于云业务的持续性拉动;2)国内:国内云业务加速节奏落后于海外,主要由于早期国内大厂模型优势尚未凸显,受益于DeepSeek(国内云厂商托管)、通义千问等国产模型提速,国内头部云厂商云收入增速出现拐点,阿里云24Q4收入增长开始提速,腾讯云25Q1收入增长开始提速。 相关厂商梳理:Microsoft、Google、Amazon、Oracle、阿里巴巴、腾讯、百度。 图表51:海外公有云厂商收入持续兑现(截至25Q3) 注:图中为各家公司云业务收入同比增速 资料来源:Bloomberg、华泰研究 图表52:国内公有云厂商25年云业务收入显著改善(截至25Q2) 注:图中为各家公司云业务收入同比增速 资料来源:Bloomberg、华泰研究 # 按梯队看AI应用标的的选择标准 基于上述判断,我们认为,2026年的投资核心在于寻找那些能够利用AI技术实质性驱动收入提速或显著优化利润结构的标的。我们给出AI应用标的的选择标准:第一梯队:AI驱动公司整体收入提速;第二梯队:AI收入/订单高速增长;第三梯队:AI产品高频数据亮眼。建议重点关注前两类标的。 # 一、第一梯队:优选AI驱动整体收入提速的标的 筛选标准:公司已实现AI商业闭环,AI成为公司业务的核心增长引擎,ARPU/客单价显著提升或销售/管理费用率大幅优化,净利润增速高于营收增速(经营杠杆释放)。 # 1、AI+办公:高频刚需,从“工具”向“高价值服务”的跃迁 逻辑一:AI推动ARPU值提升。办公场景属于高频刚需的场景,从“文档生成”到“知识库问答(RAG)”,AI解决了办公场景中信息过载的痛点,推动办公软件从“工具”向“数字员工”跃迁。对于C端用户,AI已成为会员体系升级的核心驱动力,如金山办公通过WPS AI成功重塑了会员定价体系。 逻辑二:RAG(检索增强生成)构建数据护城河。对于B端企业,最大的痛点是“知识孤岛”。AI能够将企业沉淀的PDF、合同、报表变成可对话的知识库。 # 推荐公司: 金山办公:国产办公龙头。WPSAI商业化路径十分清晰:C端通过AI会员体系实现量价齐升;B端数字办公平台渗透率加速。此外25Q4-2026,党政信创的采购叠加行业信创加速推进,信创业务仍有望保持快速增长态势。25Q3公司迎来业绩拐点,预计2026年营收及利润有望加速增长。 福昕软件:公司专注于PDF复杂场景,其AI摘要和交互等功能在海外法律、教育等市场具有很高的议价权。2025年公司订阅转型与渠道转型成功,业绩快速增长,预计2026年营收及利润有望维持快速增长态势。 # 其他相关标的: 合合信息:拥有扫描全能王和启信宝的海量数据,其核心逻辑在于利用AI解析非结构化商业文档,数据资产价值很高。 # 2、AI+税务:政策驱动下的合规刚需 逻辑一:金税四期的驱动效应。“金税四期”的核心是“以数治税”,全电发票推广后,税务稽查从“抽查”变为“全量数据监控”。企业面临的合规风险指数级上升,必须采购智能化系统进行自动风控。此类SaaS具有很高的客户粘性和刚性支出特征。 逻辑二:高壁垒的垂类模型。税务法规极其复杂且实时更新,通用大模型无法解决中国特色的税务合规问题。只有拥有几十年税务数据沉淀的厂商,才能训练出精准的税务垂类模型。 # 相关标的 税友股份:税务领域B端SaaS龙头。公司具备G端卡位优势,在税务SaaS领域拥有数百万的中小付费用户。公司利用AI大模型积极拓展高价值的合规税优产品,并通过收购代账公司的用户进行精细化运营和赋能,实现SaaS业务的“量价齐升”。公司新推的AI开票、AI会计等Agent产品用户口碑良好,推广迅速。 # 3、AI+营销/销售:为企业增收,ROI提升最清晰 通过AI Agent赋能,可以实现销售漏斗和经营决策的全链路自动化,ROI提升显著。 1)AI赋能销售漏斗的全链路自动化:AI时代的智能营销能够生成内容(海报/视频)、智能投放(RTA)、甚至通过Agent充当SDR(销售开发代表)与客户聊天。它替代了设计师和初级销售,能直接降低获客成本(CAC)并提升转化率; 2)AI Agent重塑企业决策流程。传统的营销软件只能做数据分析,经营决策仍依赖于管理者经验。AI Agent可实时处理流数据,变“被动查询”为“主动预警”;直接对接内外部多源数据,打破数据孤岛;通过多模态解析能力,挖掘用户评论情感倾向、图像视频等非结构化数据价值,深度分析数据之间的因果关系;针对营销等需要“快速反馈”的场景,AI Agent可实时生成个性化策略,提升转化率。 根据迈富时官微,以其服务的一家大型零售消费企业为例,通过AI Agent赋能,该公司媒介采购成本降低 $35\%$ ,人力成本下降 $29\%$ ,时间成本节省 $23\%$ ;同时推动内容生产率提升 $43\%$ ,传播效率提高 $31\%$ ,私域转化率增长 $33\%$ ,SOP执行率提升 $39\%$ ,让企业运营能效实现全方位优化。 # 相关标的 迈富时:中国营销及销售SaaS解决方案龙头,公司实现了从公域获客到私域转化的全流程AI自动化。AI+营销/销售赛道加速渗透,推动公司AI+SaaS订单加速增长。 # 4、大B客户 + AI 解决方案:数据主权与私有化壁垒 逻辑一:大B客户AI投入具备更强的持续性和确定性。国内以金融、能源、运营商等央国企为代表的大B企业,受政策和数智化转型的双重驱动,在AI投入的意愿和能力上都更具备持续性和确定性。利好具备AI大模型私有化能力和行业Know-how的解决方案厂商。 逻辑二:从“项目制”向“运营制”转型。传统IT项目是一锤子买卖。现在大模型需要持续微调(Fine-tuning)和知识库更新,这使得IT服务商能够收取持续的运营维护费,商业模式大幅优化。 # 推荐公司 第四范式:决策类AI龙头,公司持续推动AIagent+垂类世界模型规模化落地。2025年AI驱动公司整体收入提速,24年/25Q1/Q2/Q3营收同比增速 $25\% /30\% /49\% /31\%$ ;大客户的AI需求持续性及公司的AI业务定位决定了其收入增长具备持续性。 # 相关标的 汉得信息:公司拥有庞大的ERP实施客户群,且以大B客户为主。2026年公司将受益于两大驱动力:一是大B客户AI需求的持续释放,公司具有先发优势;二是能源、金融等行业ERP国产化加速推进,公司在ERP产品领域已储备多年,产品已基本完善。 # 二、第二梯队:优选AI收入高增长的标的 该部分标的共性特点是,技术门槛更高,落地周期更长,但一旦突破,将迎来更大的增长机会。 # 1、AI + ERP: 逻辑一:传统ERP是记录系统,AIERP是行动系统。AIAgent可以自主监控库存,发现短缺后自动比价并下单。这种“自主智能体”将彻底重构企业的管理流程。 逻辑二:国产化替代的“弯道超车”机会。在传统ERP逻辑下,国产软件很难追赶SAP/Oracle。但在“AI原生”的ERP架构下,国产厂商在应用层面的创新速度更快,有望借AI实现高端市场的份额突破。 相关标的:金蝶国际、鼎捷数智。 # 2、AI+终端: 逻辑一:出于隐私、低延迟要求和成本的考虑,越来越多的AI推理将发生在端侧(手机/车机)。这意味着所大多数终端设备都需要配备高性能NPU和全新的AIOS。 逻辑二:量价齐升的软件红利。硬件厂商为了提升产品销量,必须搭载更炫酷的AI功能(如AI消除、实时翻译、智能驾驶等)。算法厂商和OS厂商将直接受益于设备出货量的复苏(量)和单机软件授权费的提升(价)。 推荐公司:虹软科技 # 3、AI+医疗 逻辑一:解决“不可能三角”。医疗行业面临质量、成本、可及性的不可能三角。AI是能同时解决这三者的最优方案:让基层医生拥有专家的诊断能力(提升可及性与质量),同时将诊断时间大幅缩短(降低成本)。 逻辑二:商业模式从“卖软件”变为“卖服务/诊疗”。随着医疗AI三类证的获批和医保目录的进入,AI厂商可以按“次”收取诊断费,或者与医院分成。这打开了广阔的医疗服务市场空间。 相关标的:讯飞医疗、一脉阳光、晶泰控股、嘉和美康 # 计算机2026展望:从“控费”转向“内生增长” # 2025三季报综述:营收温和复苏,强控费驱动利润高增长 样本数据:我们选取申万一级计算机指数为统计样本,分为两种口径:一是申万一级计算机指数全样本,剔除B股标的,共计360个公司,称为“全口径”数据;二是剔除营收规模500亿以上的5家公司(神州数码、上海钢联、浪潮信息、紫光股份、海康威视,以硬件公司为主),共计355家公司,称为“小口径”数据。 2025年前三季度计算机行业整体营收呈现“弱复苏”态势,AI硬件公司营收好于软件。计算机行业2025年前三季度营收情况:1)全口径:营收9393.4亿,同比增长 $9.38\%$ ;2)小口径:营收5159.04亿元,同增 $4.00\%$ 。前述数据表明,行业营收整体呈现“弱复苏”状态,以浪潮信息、紫光股份为代表的AI硬件公司的营收增速情况好于软件公司。 图表53:计算机行业整体营收情况(全口径) 资料来源:Wind,华泰研究 图表54:计算机行业整体营收情况(小口径) 资料来源:Wind,华泰研究 计算机行业利润增速远超营收增速,“业绩剪刀差”显著。25Q1-Q3归母净利润情况:1)全口径:25Q1-Q3归母净利232.98亿,yoy+35.83%;2)小口径:25Q1-Q3归母净利102.56亿,yoy+99.22%。25Q1-Q3扣非净利润情况:1)全口径:25Q1-Q3扣非净利143.21亿,yoy+41.32%;2)小口径:25Q1-Q3扣非净利盈利17.98亿,yoy+217.88%。前三季度计算机行业利润增速远高于营收增速,这主要得益于企业持续降本增效,控费效果显著,以及去年同期低基数效应,业绩“剪刀差”得以体现。 图表55:计算机行业整体归母净利情况(全口径) 资料来源:Wind,华泰研究 图表56:计算机行业整体归母净利情况(小口径) 资料来源:Wind,华泰研究 图表57:计算机行业整体扣非净利情况(全口径) 资料来源:Wind,华泰研究 图表58:计算机行业整体扣非净利情况(小口径) 资料来源:Wind,华泰研究 25Q1-Q3行业毛利率呈继续下滑态势。2025年前三季度,计算机行业毛利率呈继续下滑态势。1)全口径:板块整体毛利率为 $23.24\%$ ,同比下滑2.07pct;2)小口径:板块整体毛利率为 $32.5\%$ ,同比下滑1.24pct。前述数据表明,今年以来,虽然行业营收增速有所恢复,但行业竞争更加激烈,我们推测部分计算机公司通过“以价换量”来维持市场份额。 图表59:计算机行业毛利率情况(全口径) 资料来源:Wind,华泰研究 图表60:计算机行业毛利率情况(小口径) 资料来源:Wind,华泰研究 前三季度期间费用率持续下行,行业降本增效仍在持续。由图61、图62可知,无论是全口径还是小口径,23前三季度至25年前三季度计算机行业期间费用率呈持续下降态势。1)全口径:25Q1-Q3期间费用率 $21.16\%$ ,同比下降2.04pct;2)小口径:25Q1-Q3期间费用率 $31.84\%$ ,同比下降1.45pct。期间费用率的下降是今年板块业绩修复的核心驱动力。其中,小口径(剔除硬件大厂)的期间费用率显著高出全口径10.68pct,这主要是因为软件及SaaS企业是典型的人力密集型行业,研发人员薪酬和销售费用是核心成本,具有更高的费用刚性。 营销推广趋于谨慎,研发更加侧重利用AI“提效”。我们进一步拆分期间费用情况,25Q1-Q3行业(全口径)销售费用率/管理费用率/研发费用率分别为 $7.31\% /4.91\% /8.75\%$ ,分别同比下降0.68/0.47/0.88pct。(小口径)销售费用率/管理费用率/研发费用率分别为 $10.48\% /8.17\% /12.96\%$ ,分别同比下降0.43/0.35/0.66pct。 上述数据表明,25年前三季度,研发费用率和营销费用率下降是本轮费用下降的重要贡献来源。在G端预算收紧和B端决策周期拉长的背景下,企业削减了差旅、会务及低效的市场投放,企业营销策略整体趋于谨慎。研发投入方面,一方面最近两三年大多数企业会进行战略聚焦,主要围绕AI进行投入,同时收缩非核心业务投入;另一方面,AI代码助手(Copilot)在企业研发内部广泛使用,使得初级代码工作的效率提升,部分企业开始尝试用AI替代初级外包开发,从而提高了企业的研发效率,促使研发费用率下降。 图表61:计算机