> **来源:[研报客](https://pc.yanbaoke.cn)** # 2026AI年度策略:大厂链入口争夺战 行业投资评级:强于大市维持 陈涵泊/李佩京/王思 中邮证券研究所 人工智能团队 中邮证券 发布时间:2025-12-15 算力破局供给与模型趋向普惠,AI应用入口迎来重构时刻。我们认为,随着全球算力供应紧张态势缓解及模型训练/推理成本快速下降,AI产业发展重心正从“模型能力竞赛”转向“应用效率与规模竞争”,一个以用户和场景为中心的新一代AI应用入口生态将加速整合与重塑。未来1-2年将是市场格局分化与整合的关键时期,其竞争的本质是“生态控制力”之争。在我国市场,阿里、字节、腾讯、华为等厂商凭借其独特的存量生态与新增能力,正依托深厚场景认知、优质客户关系及卓越产品化能力,有望在此轮入口重塑中赢得先机。 > 阿里:围绕通义国内第一大模型,重塑应用生态。算力投入方面,阿里已明确将AI作为未来优先级方向之一,计划在未来三年内投入超过3800亿元人民币用于技术研发和基础设施,并有望上移该目标。通过大规模资本开支,阿里正在走通“云需求提升 $\rightarrow$ 资本开支投入 $\rightarrow$ 云基础设施完善 $\rightarrow$ 云需求提升”的商业闭环,AI相关产品收入已连续九个季度实现三位数同比增幅。应用抢滩方面,阿里通过“通义千问”大模型家族的全尺寸、全模态、多场景开源,成为全球开源模型领导者,结合阿里云基础设施,打造AI应用入口:钉钉成为服务企业客户的AI to B核心入口;而夸克与千问则共同构成了面向个人用户的AI to C双引擎。 > 字节:AI时代高举高打,重启“APP工厂”模式。字节在生成式AI保持算力高投入,在国内CSP大厂中投入最为积极,2028年Capex或达450亿美元,其中大部分投向算力采购和IDC基础设施建设。应用方面,字节赛道复现“APP工厂”,地域全球布局,Web/APP双端推进。在字节高举高打策略下,豆包大模型以“厘成本”价格打响业内知名度,后对内对外投流使得明星产品豆包成为国内爆款应用。此外,字节积极布局端侧入口,2025年12月初,字节跳动豆包团队与中兴合作,发布了搭载豆包手机助手技术预览版的工程样机,验证技术可行性,逐步探索商业化。 > 腾讯:基于核心业务有序投入算力,应用重视可变现。腾讯资本开支策略是在确保内部需求与财务健康的前提下,以软件和生态优化来应对外部挑战,追求AI技术与现有核心业务更深度融合的、可持续的回报路径。凭借微信、QQ独特的优势,腾讯能够以业务养技术,以场景促应用。基于此,腾讯在AI原生应用无论是产品数量还是推广节奏前期都较为克制,2025年借力DS之风实现快速发展,并快速实现元宝与腾讯社交、游戏、广告的深入融合,理顺商业化变现路径。 > 华为:聚焦基础设施国产对标,芯片再崛起。华为已构建出一条以全栈自主创新为基石、以“超节点+集群”为核心架构、以开放生态为放大器的独特“算力链”。面对全球AI算力竞争与特定的技术环境,华为的战略核心在于不以单纯追逐单芯片算力峰值为目标,而是通过系统级的工程架构创新,将计算、存储、网络进行深度融合,打造出规模化、高效能、可持续的AI算力底座。华为全联接大会2025发布了一系列即将上市和规划中的新品,从芯片架构到超节点,从通用算力到智能算力。其中,华为Atlas950/960,从超节点到百万卡集群,有望打造全球最强算力,分别计划26Q4和27Q4面世。 投资建议:具体投资标的见正文。 > 风险提示:地缘政治冲与贸易风险、技术迭代不及预期、国内AI商业化进展不及预期、算力供应不及预期、行业竞争加剧风险等。 # 目录 算力破局供给与模型趋向普惠,AI应用入口迎来重构时刻 阿里:围绕通义国内第一大模型,重塑应用生态 字节:AI时代高举高打,重启“APP工厂”模式 腾讯:基于核心业务有序投入算力,应用重视可变现 华为:聚焦基础设施国产对标,芯片再崛起 投资建议与风险提示 # 算力破局供给与模型趋向普惠,AI应用入口迎来重构时刻 1.1 算力紧缺态势系统性缓解,模型性价比革命筑牢AI应用规模化基石 1.2 效率为王时代,AI入口与生态迎来整合窗口 # 1.1.1 算力紧缺态势系统性缓解,国产算力自给率提升 > 我们认为,随着全球芯片产能爬坡和推理成本显著优化,算力紧缺态势得到了系统性的缓解。当前,以英伟达为代表的主要AI芯片供应商产能持续提升,且伴随着国内外头部CSP厂商将算力作为核心投入,公共云算力池日益丰富,算力供给瓶颈逐步打破。根据摩根斯坦利预测,25年Q1、Q2、Q3、Q4,GB200/300 NVL 72机柜出货量达分别为900、4300、8300、1380台,产能逐步爬坡。此外,我们认为,随着推理成本显著优化,模型压缩、混合精度、专用硬件等技术大幅降低单位Token推理成本,使高频次、大规模调用成为可能,进一步缓解算力紧缺态势。 > 对于我国而言,随着国产芯片厂商逐步推出下一代高性能AI芯片,以及先进逻辑芯片产能快速扩张,国产算力芯片自给率逐步提升。根据Bernstein预测,2025年我国本地芯片总需求与本地产能分别为370、160亿元,供给/需求为 $40\%$ ,而到2028年,本地芯片总需求与本地产能分别为880、910亿元,供给/需求为 $104\%$ ;2025年我国芯片自给率仅为 $58\%$ ,而2028年或达 $93\%$ 。 图表1:GB200/300 NVL72机柜出货量预测(台) 图表2:中国AI芯片本地供需分析 图表3:中国AI芯片全球与本地供应商销售分析 资料来源:摩根斯坦利,中邮证券研究所 资料来源:Bernstein,中邮证券研究所 # 1.1.2 模型性价比革命,能力提升与成本下降的剪刀差 > 模型升级常态化,性能稳步提升:根据Artificial Analysis,全球大模型厂商整体保持1-2月更新一代节奏。 > 开源与闭源模型共促降本:强大开源模型(如DeepSeek、Qwen)提供高质量、可定制化的低成本基础选项,成本普遍低于闭源模型;而伴随着模型版本更新,开源与闭源模型均推动API价格下降。 “小而精”模型凸显垂类场景价值:我们认为,面向垂直场景的微调模型,由于针对特定任务训练有望在效果媲美大模型,同时由于参数量较小具备巨大的成本优势,催生丰富应用,激励各类企业大规模部署与创新AI应用。 图表4:全球大模型厂商整体保持1-2月更新一代节奏 Artificial Analysis Intelligence Index v3.0 incorporates 10 evaluations: MMLU-Pro, GPQA Diamond, Humanity's Last Exam, LiveCodeBench, SciCode, AIME 2025, IFBench, AA-LCR, Terminal-Bench Hard, $\tau^2$ -Bench Telecom 图表5:全球主流大模型API输入/输出价格对比 > 我们认为,随着全球算力供应紧张态势缓解及模型训练/推理成本快速下降,AI产业发展重心正从“模型能力竞赛”转向“应用效率与规模竞争”,一个以用户和场景为中心的新一代AI应用入口生态将加速整合与重塑。未来1-2年将是市场格局分化与整合的关键时期,其竞争的本质是“生态控制力”之争。在我国市场,阿里、字节、腾讯、华为等厂商凭借其独特的存量生态与新增能力,正依托深厚场景认知、优质客户关系及卓越产品化能力,有望在此轮入口重塑中赢得先机。 1)阿里正通过“千问”将分散的AI能力与生态服务整合为统一的C端入口,其核心逻辑是从理解语言升级为执行任务。 2)字节将移动互联网时代的“流量+算法”核心优势平移到AI时代,通过“豆包”等产品进行高频攻击,并探索更深层的系统级入口。 3)腾讯的AI入口战略呈现出显著的B端商业化倾斜和连接器特征,其核心是通过全面开放AI能力,将微信、QQ等超级入口的流量与产业场景深度结合。 4) 华为依托其昇腾全栈国产算力闭环生态, 其AI入口深刻融入设备与系统之中。 # 图表6:腾讯微信紧握社交入口和字节抖音卡位内容入口 ByteDance字节跳动 # Tencent 腾讯 # 场景渗透 $\spadesuit$ 短视频、电商、广告 头条 $\spadesuit$ 社交、游戏、支付 # 内容生态 $\spadesuit$ 字节的算法中台积淀(如抖音推荐系统) $\spadesuit$ 公众号、视频号、小程序等场景积累的图文/视频数据,构成多模态训练的金矿 # 已有布局 $\spadesuit$ SEED全明星阵容,拒绝接入DeepSeek # Agent禀赋 $\spadesuit$ Agent发布开源框架TARS,但目前未形成开发者网络 $\spadesuit$ 推荐算法的基因与Agent Planning互通:用户停留时长、互动行为预测 $\spadesuit$ 无思想包袱,大量腾系产品拥抱Deepseek copilot $\spadesuit$ 手握超级入口,能够将AI Agent无缝嵌入用户高频场景(如微信搜索、小程序服务),实现“即用即走”的轻量化渗透 # 阿里:围绕通义国内第一大模型,重塑应用生态 2.1 算力筑基,重资本投入、硬科技自研与全球化网络扩张 2.2 应用赋能,C端超级生活入口打造与B端办公生态共创 # 2.1.1 超常规资本开支,AI+云业务持续高增长 > 我们认为,阿里巴巴的算力战略核心是,通过史无前例的资本开支构建规模优势,通过底层技术自研确保效率与安全,通过全球网络扩张捕捉市场机遇。 > 阿里已明确将AI作为未来优先级方向之一,计划在未来三年内投入超过3800亿元人民币用于技术研发和基础设施,并有望上移该目标。阿里资本开支自2023Q4增速转正以来,连续2年维持在较高增速。2025Q3,阿里单季度资本开支为315亿元,同比 $+80.1\%$ ,本季度阿里云持续加码全栈AI能力,从前沿AI基础模型到高性能AI基础设施形成完整技术体系。最新发布的Qwen3-Max模型,性能超过GPT5、Claude Opus 4等,跻身全球前三。 > 资源投入从训练到推理逐层递进:1)基座模型训练:通过持续迭代模型能力,解锁更多客户及高价值场景,进而提升TOKEN消耗量、质量与客户付费意愿;2)百炼平台推理服务:聚焦全球客户服务,通过AI资源24小时高效率调度(削峰填谷)实现服务器满载运行,做大百炼资源池;3)内部AI化推理服务:覆盖内部各业务场景的推理服务需求;4)外部客户推理服务需求:全方位使用阿里云服务(含存储、大数据、CPU资源等)的外部客户优先级高于仅纯粹租用GPU满足简单推理需求的外部客户。 > 我们认为,阿里资本开支投向有望用于大规模AI智算中心建设、高端AI芯片采购与自研、全球数据中心网络扩张。这向市场传递了两个清晰信号:一是公司对AI浪潮的坚定信念,二是其旨在成为全球AI竞赛中最重要的“卖铲人”之一,目标成为中国最重要的AI算力基础。 图表7:阿里巴巴资本开支及增速 # 2.1.1 超常规资本开支,AI+云业务持续高增长 > 我们认为,云计算是“AI时代的电网”,阿里正在走通“云需求提升 $\rightarrow$ 资本开支投入 $\rightarrow$ 云基础设施完善 $\rightarrow$ 云需求提升”的商业闭环,AI相关产品收入已连续九个季度实现三位数同比增幅。随着DeepSeek爆火带来的AI需求爆发,外界对云计算的调用请求正显著增长,也带来了阿里云需求提升。阿里发布2026财年第二财季(2025年第三季度),公司实现收入2477.95亿元(市场预期2452亿元),同比 $+5\%$ ,剔除已出售高鑫零售和银泰业务影响,同口径收入同比 $+15\%$ 。分业务来看,阿里云业务增速再创新高。当季度阿里云智能集团实现收入398.2亿元(市场预期379.9亿元),同比 $+34\%$ ,外部客户收入同比 $+29\%$ ,主要系公有云尤其是AI产品的需求增长。 > 根据Omdia,2025年上半年,中国AI云市场规模达223亿元,阿里云占比 $35.8\%$ 位列第一,市场份额高于2到4名的总和,凭“AI全栈”继续引领市场发展。全栈AI优势放大增长势能,带动公共云持续增长。阿里云在政企市场、金融云、混合云等领域均有持续份额提升。25Q3,阿里云与NBA、万豪、中国银联、博世等全球知名企业达成AI合作,推动AI加速规模落地。阿里云不再仅仅是提供计算能力的传统云服务商,而是进化成为企业提供从底层算力、中层模型到上层应用的全栈式AI解决方案伙伴。 图表8:阿里云业务收入、云业务占比、增速情况 资料来源:Wind,公司IR材料,中邮证券研究所 图表9:中国AI云市场份额情况(2025H1) 资料来源:Omdia,阿里云,中邮证券研究所 # 2.1.2 平头哥算力芯片自研,超节点构筑技术护城河 > 为避免业务被单一芯片供应商“绑定”或断供影响,阿里2021年提出“一云多芯”战略,称其飞天云计算操作系统正全面兼容X86、ARM、RISC-V等多种芯片架构。“一云多芯”是阿里云从上层云操作系统到底层自研芯片的全栈布局,目标是为企业提供更自主、更灵活、更高效的算力。 > 自研芯片是“多芯”的重要组成:平头哥的倚天(服务器CPU)、含光(AI推理芯片)以及PPU,都是“多芯”生态中的关键自主选项。2018年,阿里成立平头哥,自此开启了自研芯片之旅。迄今,平头哥已陆续推出“玄铁”系列RISC-V处理器、“含光”系列AI芯片、“倚天”系列通用服务器CPU、以及企业级SSD主控芯片镇岳510等。其中的自研CPU芯片倚天710、AI推理芯片含光800等均在阿里云上实现了规模化部署。 图表10:阿里云“一云多芯”战略 资料来源:阿里云微信公众号,中邮证券研究所 图表11:阿里平头哥自研芯片产品矩阵 资料来源:平头哥官网,中邮证券研究所 # 2.1.2 平头哥算力芯片自研,超节点构筑技术护城河 > 阿里自研芯片PPU性能对标英伟达A800、H20,已中标中国联通三江源绿电智算中心项目,意味着PPU从实验室研发步入到规模化商业部署的阶段。 ■9月16日晚间央视《新闻联播》播出了中国联通三江源绿电智算中心项目建设成效,其中国产算力部分涉及阿里平头哥(万卡)、沐曦股份、壁仞科技、中昊芯英、太初元碁、燧原科技、摩尔线程等多个国产AI芯片品牌的已签约或拟签约情况。已签约项目共有1747台设备、22832张算力卡,总算力达3479P。其中,阿里云总计1024台设备、16384张平头哥算力卡、1945P算力,算力占比 $56\%$ 。 ■ 平头哥PPU采用HBM2e显存,显存容量多达96GB,片间带宽为700GB/s,功耗为400W,多项配置规格超过A800、接近H20。 图表12:中国联通三江源绿电智算中心项目签约及拟签约情况 资料来源:新闻联播,芯东西微信公众号,中邮证券研究所 图表13:平头哥PPU与英伟达、华为、壁仞算力卡参数对比 资料来源:新闻联播,芯东西微信公众号,中邮证券研究所 # 2.1.2 平头哥算力芯片自研,超节点构筑技术护城河 > 大模型进入推理阶段,为应对如下相互依赖又制约的推理需求:单域算力规模、低延时通信、灵活算力和缓存配比、更高的性价比,超节点服务器应运而生。在模型规模和算力诉求持续增长,单一的计算芯片算力有限、单一的缓存芯片容量有限的条件下,大模型训练/推理服务器的设计命题核心就指向了芯片互连。 > 2025云栖大会上,阿里云发布了全新一代磐久AIInfra2.0AL128超节点服务器,可支持多种AI芯片,推理性能显著提升。新一代磐久超节点服务器由阿里云自主研发设计,具备高密度、高性能和高可用的核心优势,可高效支持多种AI芯片,单柜支持128个AI计算芯片,密度刷新业界纪录。磐久超节点集成阿里自研CIPU2.0芯片和EIC/MOC高性能网卡,采用开放架构,扩展能力极强,可实现高达Pb/s级别Scale-Up带宽和百ns极低延迟,相对于传统架构,同等AI算力下推理性能还可提升 $50\%$ 。 图表14:阿里超节点内ScaleUp互连:单级交换,非以太ALink协议 资料来源:阿里云官网,中邮证券研究所 图表15:磐久AIInfra2.0AL128超节点服务器示意图 资料来源:阿里云官网,中邮证券研究所 # 2.1.3 全球算力网络加速扩张,致力于成为领先的全栈AI服务商 > 为服务全球客户的AI需求,阿里云正加速其数据中心全球化布局。2025Q3,阿里云宣布计划在巴西、法国、荷兰新建地域节点,并已启用迪拜和马来西亚的新数据中心。这是继今年在泰国、韩国、墨西哥及中国北京、上海、杭州等地之后,阿里云在全球基础设施布局上取得的又两项重要进展。截至25年11月底,阿里云全球基础设施覆盖29个地域、92个可用区。这种密集的全球网络布局,不仅能满足不同地区的数据合规要求,更能为全球企业提供低延迟、高可用的AI算力服务,是其从中国云厂商迈向全球云服务商的关键一步。 图表16:阿里云全球基础设施布局 资料来源:阿里云微信公众号,中邮证券研究所 # 2.2.1 通义定位AI时代Android,百炼构建开发者Agent创新池 > 阿里通过“通义千问”大模型家族的全尺寸、全模态、多场景开源。25Q3,阿里在AI大模型上持续演进,推出包括超万亿参数的Qwen3-Max,拥有顶级编程能力的Qwen3-Coder,视觉理解模型Qwen3-VL,全模态模型Qwen3-Omni以及下一代模型架构Qwen3-Next等大语言模型;视觉基础模型通义万相更新至Wan2.5,涵盖文生视频、图生视频、文生图和图像编辑四大模型;语音模型家族通义百聆全新发布,涵盖语音识别和语音生成两大系列。 > Qwen3-Max性能跻身全球前三。通义千问Qwen3-Max在云栖大会正式发布,总参数量超1万亿、含指令与推理双版本,在中英文理解、工具调用、编程等能力上实现突破且减少幻觉,关键评测中表现亮眼,其性能已跻身全球第三,超过了GPT5、Claude Opus 4等业内顶尖模型,推理增强版更创国内数学评测满分纪录。 图表17:Qwen3-Max在最权威的LMArena文本排行榜上,进入全球前三 资料来源:Applicationsofllm,LMArena,中邮证券研究所 图表18:通义千问Qwen模型家族 开源全球第一·18万+全球衍生模型·全球下载量7亿+ 服务千行百业·100万+客户·中国企业使用量最多 全球首个太阳大模型“金乌”辅助医生诊疗手机终端智能体超大城市治理数字化转型政务服务智能助手商户智能审核助手汽车智能座舱条款解读助手 智能眼镜 # 2.2.1 通义定位AI时代Android,百炼构建开发者Agent创新池 > 阿里已成为全球AI开源生态的领导者。截至25年12月,阿里Qwen模型已更新接近400款模型,在全球最大开发者社区Hugging Face上的衍生模型数量接近20万,并运营着国内最大的AI模型社区“魔搭”。根据Huggingface发布的最新开源大模型榜单(Open LLM Leaderboard),榜单显示,其排名前十的开源大模型全部是基于阿里通义千问(Qwen)开源模型二次训练的衍生模型。在Hugging face2024年的开源模型下载中,Qwen模型系列中的Qwen2.5-1.5B-Instruct的下载量占总下载量的 $26.6\%$ ,是全球下载量最高的开源模型。在这一轮推理模型技术浪潮中,Qwen系列模型广受欢迎。 > 随着模型性能的提升,Qwen有望成为AI时代的Android,创造大于闭源模型的生态价值。根据头豹&沙利文《中国GenAI市场洞察:企业级大模型调用全景研究,2025》,当前市场仍以闭源模型为主流部署模式,2025年H1闭源模型占 $56\%$ ,开源占 $44\%$ ,但未来新增调用意向中开源达 $70\%$ ,闭源 $30\%$ 。 > 我们认为,阿里开源战略的核心在于掌握生态话语权和创新源头。海量开发者的使用、微调和创新,不仅持续反哺和优化其基础模型,更将其技术标准潜移默化地植入整个产业,构建了深厚的生态护城河。 图表19:全球开源大模型前十均为阿里通义千问衍生模型 <table><tr><td>Rank</td><td>Type</td><td>Model</td><td>Average ①</td><td>IFEval ①</td><td>BBH ①</td><td>MATH ①</td><td>GPQA ①</td><td>MUSR ①</td><td>MMLU... ①</td></tr><tr><td>1</td><td>◇</td><td>MaziyarPanahi/calme-3.2-instruct-78b</td><td>52.08 %</td><td>80.63 %</td><td>62.61 %</td><td>40.33 %</td><td>20.36 %</td><td>38.53 %</td><td>70.03 %</td></tr><tr><td>2</td><td>◇</td><td>MaziyarPanahi/calme-3.1-instruct-78b</td><td>51.29 %</td><td>81.36 %</td><td>62.41 %</td><td>39.27 %</td><td>19.46 %</td><td>36.50 %</td><td>68.72 %</td></tr><tr><td>3</td><td>◇</td><td>dfurman/CalmeRys-78B-Orpo-v0.1</td><td>51.23 %</td><td>81.63 %</td><td>61.92 %</td><td>40.63 %</td><td>20.02 %</td><td>36.37 %</td><td>66.80 %</td></tr><tr><td>4</td><td>◇</td><td>MaziyarPanahi/calme-2.4-rys-78b</td><td>50.77 %</td><td>80.11 %</td><td>62.16 %</td><td>40.71 %</td><td>20.36 %</td><td>34.57 %</td><td>66.69 %</td></tr><tr><td>5</td><td>◇</td><td>huihui-al/Qwen2.5-72B-Instruct-abliterated</td><td>48.11 %</td><td>85.93 %</td><td>60.49 %</td><td>60.12 %</td><td>19.35 %</td><td>12.34 %</td><td>50.41 %</td></tr><tr><td>6</td><td>◇</td><td>Qwen/Qwen2.5-72B-Instruct</td><td>47.98 %</td><td>86.38 %</td><td>61.87 %</td><td>59.82 %</td><td>16.67 %</td><td>11.74 %</td><td>51.40 %</td></tr><tr><td>7</td><td>◇</td><td>MaziyarPanahi/calme-2.1-qwen2.5-72b</td><td>47.86 %</td><td>86.62 %</td><td>61.66 %</td><td>59.14 %</td><td>15.10 %</td><td>13.30 %</td><td>51.32 %</td></tr><tr><td>8</td><td>◇</td><td>newsbang/Homer-v1.0-Qwen2.5-72B</td><td>47.46 %</td><td>76.28 %</td><td>62.27 %</td><td>49.02 %</td><td>22.15 %</td><td>17.90 %</td><td>57.17 %</td></tr><tr><td>9</td><td>◇</td><td>ehristoforu/qwen2.5-test-32b-it</td><td>47.37 %</td><td>78.89 %</td><td>58.28 %</td><td>59.74 %</td><td>15.21 %</td><td>19.13 %</td><td>52.95 %</td></tr><tr><td>10</td><td>◇</td><td>Saxo/Linkbricks-Horizon-Al-Avengers-V1-32B</td><td>47.34 %</td><td>79.72 %</td><td>57.63 %</td><td>60.27 %</td><td>14.99 %</td><td>18.16 %</td><td>53.25 %</td></tr></table> 资料来源:Hugging Face,中邮证券研究所 图表20:开源/闭源调用量分布(2025年H1) 资料来源:头豹&沙利文《中国GenAI市场洞察:企业级大模型调用全景研究, 2025》,新浪,中邮证券研究所 > 阿里云提供一站式模型服务平台百炼,聚焦AI Agent技术落地,推出AgentScope开源框架、无影AgentBay“超级大脑”及Qoder编程平台三大核心产品,全面覆盖企业级Agent开发、多场景任务执行与开发者编程效率提升,显著降低AI Agent落地门槛,强化其在AI基础设施领域的竞争力。 > AgentScope框架:开源属性打破预定义编排开发局限,支持企业开发具备自主决策、多轮反思与循环执行能力的AI Agent,可联动云上企业知识库与资源服务,1小时即可完成生成深度报告的Deep Research项目开发,大幅缩短企业级Agent落地周期。 > 无影AgentBay:首款专为AI Agents打造的“超级大脑”,覆盖代码运行、网页浏览、数据分析等基础任务,叠加视觉理解、自然语言控制等进阶能力,支持Windows/Linux/Android多系统无缝切换,可调用云上算力、存储与工具链资源,适配多场景Agent任务执行需求。 > Qoder编程平台:面向全球开发者的Agentic编程工具,集成顶尖编程模型,具备10万级代码文件检索能力,依托AI自主研发能力提升软件开发效率,电商网站前后端开发耗时从数天压缩至10分钟,显著优化开发者场景效率。 图表21:阿里基于一站式模型服务平台百炼开发Agent 资料来源:阿里云微信公众号,中邮证券研究所 # 2.2.2 内部业务全面AI化,钉钉成为toB核心入口 > 阿里将自身庞大的业务体系作为AI应用的“首战场”和“试金石”,致力于全面渗透。今年年初,继宣布三年投入3800亿元之后,阿里All in AI开始向应用端深化,CEO吴泳铭主张在阿里现有业务中全面实现“AI化”。 电商与营销:淘宝已搭建起与商业场景紧密结合的AIGX技术体系,覆盖包括AIGI(索引)、AIGR(推荐)、AIGB(出价)、AIGA(拍卖)、AIGC(创意)、AIGD(数据)等电商经营所需全场景,显著提升营销效率。25年11月,淘宝天猫向消费者同步推出6款AI导购应用(AI万能搜等),以满足不同场景的购物需求;淘宝还为商家组建AI经营团队,帮助商家降本增效。 国际业务:阿里国际站推出人工智能平台Aidge,通过AI简化国际贸易。阿里国际站AI工具已服务超10万外贸企业,帮助商家优化商品信息,带动商品转化率提升 $52\%$ 企业服务:8月25日,钉钉发布8.0版本,推出了下一代AI办公应用形态:钉钉ONE。钉钉ONE被设计为人与AI通过自然语言对话的统一入口,致力于打造全球首个以Agent驱动的工作信息流,从办公工具进化为智能生产力平台。 图表22:阿里国际站人工智能平台Aidge 资料来源:Aidge官网,中邮证券研究所 图表23:钉钉AI办公工具 AI&沟通 # 钉钉ONE 高效工作,轻松学习 # 钉钉AI搜问 一框搜天下 # AI创业助理 开公司,用钉钉 # 即时沟通 实时消息,便捷交流 # 企业邮箱 商务沟通,便捷高效 资料来源:钉钉官网,中邮证券研究所 # 钉钉AI Fusion AI融合,企业智答 图表24:淘宝AI全景图 资料来源:亿邦动力网,8新浪科技,中邮证券研究所 # 2.2.3 成立“千问C端事业群”,千问APP进军ToC生活入口 > 阿里正式成立“千问C端事业群”,该事业群由原智能信息事业群与智能互联事业群合并重组而成,旗下涵盖千问APP、夸克、AI硬件、UC、书旗等业务。千问C端事业群目标明确将“千问”打造为AI时代的超级APP,成为用户接入各类人工智能服务的首选入口。长期来看,阿里还计划将千问升级为跨终端、全场景的AI助手,持续拓展应用边界,逐步延伸至智能眼镜、个人电脑、汽车等多元设备与生活场景。 > 11月,阿里将此前基于Qwen大模型的对话应用“通义”更名为“千问”,对标ChatGPT,同阿里电商、地图、本地生活等业务生态协同,定位“AI原生交互+全场景智能助手”,打造ToC全场景AI生活入口。千问App公测一周下载量突破1000万次,超越ChatGPT等产品,成为史上增长最快的AI应用;公测23天的千问,月活破3000万,并向用户开放AI PPT、AI写作、AI文库、AI讲题四项办事新功能。阿里正以周为单位推进千问APP迭代,计划逐步接入地图、外卖、订票、购物、健康等各类生活场景。 > 夸克聚焦“AI+搜索+场景服务”,打造ToC全场景搜索入口。3月,推出AI旗舰应用“新夸克”。该产品基于通义大模型的领先推理及多模态能力,彻底告别传统搜索模式,升级为集AI对话、深度思考、精准搜索、专题研究、高效执行于一体的“AI超级框”。与市场主流的聊天机器人形态不同,新夸克以极简交互整合多项智能功能,致力于满足用户全场景需求,并将持续优先接入通义系列模型的最新成果。 图表25:公测23天的千问,月活破3000万 千问 公测23天千问月活突破 3000万 图表26:阿里AI旗舰夸克“超级框” # 字节:AI时代高举高打,重启“APP工厂”模式 3.1 Capex最为积极引爆AI算力,火山引擎借力AI弯道超车 3.2 大力开拓原生AI应用,成就明星产品豆包 3.3生成式AI重构传统应用,提升用户体验与效率 > 字节在生成式AI保持算力高投入,在国内CSP大厂中投入最为积极,2028年Capex或达450亿美元,其中大部分投向算力采购和IDC基础设施建设。 根据Omdia,2024年字节和腾讯预计采购英伟达H系列算力卡合计约46万块,分别均采购了约23万块,仅次于微软采购量。 根据钱眼,字节2024年的资本开支达到800亿人民币,远超传统互联网巨头,而BAT三家公司的总开支才约1000亿人民币。 ■字节在AI领域的资本开支(Capex)投入最为激进,据Bernstein预测,其2028年资本开支或将达到450亿美元,2023-2028年复合年均增长率(CAGR)高达 $41.26\%$ 且自2024年起,资本开支几乎 $100\%$ 聚焦AI算力及相关基础设施建设。 图表27:2024年字节采购英伟达H系列算力卡 20万块以上 Nvidia's Hopper generation includes H100, H800, H20, H200 Source: Omdia 图表28:中国主要CSP和运营商Capex投入情况(亿美元) 资料来源:彭博,Bernstein,中邮证券研究所 图表29:中国主要CSP和运营商AI Capex投入情况(亿美元) 资料来源:彭博,Bernstein,公司公告,中邮证券研究所 资料来源:芯智讯,Omdia,中邮证券研究所 > 火山引擎IaaS实现弯道超车,2025H1在我国GenAI IaaS占比位居Top2。 ■ 火山引擎在IaaS市场起步较晚,在我国公有云IaaS市场相对落后。字节于2020年6月组建火山引擎业务,首批推出产品或服务属于SaaS和PaaS范畴。2021年,火山引擎正式进军IaaS市场。与头部厂商相比,火山引擎硬件条件、商业关系与业务运转体系均暂时落后。相较而言,仅在中国市场,阿里云已建立了52个公有云可用区(网络和电力独立的数据中心),腾讯云有40个,华为云有24个,字节跳动此前只在河北张家口建设了数据中心。2024年上半年IaaS市场,阿里巴巴、华为、中国电信、中国移动和腾讯为市场排名前五,市场份额总和为 $70.1\%$ 。 随着客户转向GenAI技术,GenAI IaaS带来了重塑市场格局的契机。2025上半年中国AI IaaS整体市场同比增长122.4%,市场规模达到198.7亿元人民币。其中,GenAI IaaS市场同比增长219.3%,市场规模达166.8亿元人民币。字节受益于过往在AI领域的沉淀、GPU资源以及在基础设施上的领先技术储备,在市场上获得先发优势。同时火山引擎背靠字节跳动算力规模带来的成本优势,搭配相对激进的销售策略,在AI市场提供高性价比算力资源,2025H1在我国GenAI IaaS市场份额位居Top2。 图表30:中国公有云IaaS服务器市场份额 (2024H1) 图表31:中国GenAIIaaS市场主要厂商市场份额(2025H1) 资料来源:IDC中国,中邮证券研究所 > 火山引擎的MaaS突围:2025H1大模型公有云服务,火山引擎占比49.2%中国第一。IDC报告显示,2025年上半年,中国公有云上大模型调用量(统计口径为云厂商对外部客户提供的服务,不含自有业务)达536.7万亿Tokens,较2024年全年114万亿Tokens的规模增长近400%。市场格局方面,火山引擎以49.2%的份额位居第一,接近半壁江山。 > 与其他云厂商侧重IaaS营收不同,火山引擎从2024年起就将MaaS置于战略高度,依托模型与平台优势助力MaaS取胜。在模型层面,豆包大模型家族迭代速度领先行业,目前已覆盖文本、图像、音频、视频等多模态领域。在平台层面,火山引擎MaaS平台“火山方舟”提供模型精调、推理、评测等全方位功能与服务,提供丰富的插件生态和AI原生应用开发服务,性能优势显著。目前,火山引擎已服务全球9家Top10手机厂商、8成主流汽车品牌(如奔驰、宝马、特斯拉)、70%的系统重要性银行(如招商银行、浦发银行)以及超五成985高校(如北京大学、浙江大学),这些跨行业客户的持续调用,进一步巩固了其Token规模优势。 图表32:2025H1大模型公有云服务调用量火山引擎中国第一 资料来源:火山引擎微信公众号,中邮证券研究所(注:如火山引擎统计,不包括抖音APP、豆包APP、即梦APP等字节跳动一方产品调用量。) # 图表33:火山方舟平台能力支持 # 专业算法服务 专业算法团队提供业务诊断、训练优化、问题解答等服务,让企业AI应用轻松落地 释放客户的独有数据价值 ✓ 场景落地的最后一公里 $\checkmark$ 助力客户成功 # 模型能力扩展 提供联网插件、内容插件、知识库和扣子专业版AI应用开发平台,帮助企业构建应用 联网插件大幅提升模型搜索能力 $\checkmark$ 提供海量优质图文视频内容 RAG知识库高性能知识库检索 # 高并发算力保障 充沛的公有云GPU资源池,创建模型瞬时可用,分钟级完成千卡扩缩容,保障业务稳定 充沛的公有云GPU资源池 $\checkmark$ 创建精调模型接入点后瞬时可用 $\checkmark$ 分钟级完成千卡扩缩容 # 安全可信会话无痕 通过传输加密、数据加密和安全沙箱等技术,在模型训练、部署和推理中,有效保障数据安全 $\checkmark$ 访问可控制、可审计 多重数据加密及环境隔离 安全护栏提供内容风险识别 资料来源:火山引擎官网,中邮证券研究所 # 3.2.1 AI时代复现“APP工厂”,依托自身流量优势打造爆品豆包 > 字节在AI生态战略上采取了全方位的布局策略,赛道复现“APP工厂”,地域全球布局,Web/APP双端推进。 > 复现App工厂模式,原生AI应用多种类覆盖。2018-2020年,字节跳动自研/收购了大量项目,在App Store上线的应用约140个。2023年以来,字节跳动已经重启了产品工厂模式,已经上线二十余款AI产品,覆盖了聊天、社交、办公、教育、图像、视频、音乐等各大类型,包括Dreamina、CodeGen等偏生产力的工具型产品与猫箱、豆包等C端应用,基本覆盖市面热门的品类。 从地域上看,字节实施全球布局,积极拓展海外市场,将自身的AI技术与产品推向全球各地,力求在全球范围内构建强大的AI应用生态体系。国内产品豆包、猫箱、星绘、小悟空、河马爱学在海外均有对应产品,即Cici、BagelBel、PicPic、ChitChop、Gauth。 此外,字节还注重双端布局,即同时在APP端和Web端发力。在APP端,字节凭借强大的技术研发能力和对用户需求的精准把握,推出了一系列功能丰富、体验流畅的AI应用,满足用户在移动设备上的多样化需求;在Web端,也积极打造使用网页端使用场景的AI工具和服务,为用户提供更多选择,进一步扩大了其AI应用的用户覆盖面。 图表34:字节跳动主要AI原生应用布局情况 <table><tr><td></td><td>团队</td><td>类型</td><td>产品名</td><td>对标产品</td></tr><tr><td rowspan="15">应用层</td><td rowspan="8">Flow总负责人:朱骏Stone负责人:洪定坤PC产品负责人:齐俊元Mobile产品负责人:陆游</td><td>智能助手</td><td>豆包(国内)Cici(海外)</td><td>ChatGPT,Anthropic等</td></tr><tr><td rowspan="3">虚拟陪伴</td><td>猫箱(国内)</td><td rowspan="3">Character AI, Talkie等</td></tr><tr><td>BagelBel(海外)</td></tr><tr><td>小香蕉(国内,已下线)</td></tr><tr><td rowspan="2">图像</td><td>星绘(国内)PicPic(海外)</td><td>Remini,妙鸭相机等</td></tr><tr><td rowspan="2">Coze(海外)扣子(国内)</td><td rowspan="2">GPTs, Dify等</td></tr><tr><td rowspan="2">Agent定制</td></tr><tr><td>小悟空(国内)ChitChop(海外,已下线)</td><td>ChatGPT,Anthropic等</td></tr><tr><td rowspan="2">剪映</td><td rowspan="2">图像/视频</td><td>即梦(国内)Dreamina(海外)</td><td rowspan="2">Runway, Midjourney, Stable Diffusion等</td></tr><tr><td>剪映(国内)Capcut(海外)醒图(国内)Hypic(海外)</td></tr><tr><td>大力教育</td><td>教育</td><td>豆包爱学(国内)Gauth(海外)</td><td>Question AI, Answer AI等</td></tr><tr><td>抖音</td><td>电商内容</td><td>即创(国内)</td><td>Runway, Midjourney, Stable Diffusion等</td></tr><tr><td rowspan="2">开发者服务团队</td><td>代码生成</td><td>豆包MarsCode(国内)MarsCode(海外)</td><td>GitHub Copilot等</td></tr><tr><td>AI模型社区</td><td>炉米Lumi(国内)</td><td>Libib等</td></tr><tr><td>其他</td><td>音乐</td><td>海绵乐队(国内)</td><td>Suno等</td></tr><tr><td rowspan="3">硬件</td><td>Oladance+Flow</td><td>AI耳机</td><td>Ola Friend</td><td></td></tr><tr><td>大力教育</td><td>智能台灯</td><td>大力智能学习灯</td><td></td></tr><tr><td>火山引擎</td><td>AI玩具</td><td>显眼包</td><td></td></tr></table> 资料来源:ZFinance微信公众号,中邮证券研究所 # 3.2.1 AI时代复现“APP工厂”,依托自身流量优势打造爆品豆包 > 豆包大模型家族在24年5月火山引擎大会上正式推出,在字节高举高打策略下,以“厘成本”价格打响业内知名度,后对内对外投流使得明星产品豆包成为国内爆款应用。 一方面,依托抖音、今日头条、巨量引擎等产品,字节具备庞大的流量优势。 字节跳动旗下广告投放平台涵盖今日头条、抖音、西瓜视频等营销资源,依托庞大的用户群体,豆包将流量池的优势发挥到了极致。2024年,抖音开始为“豆包”倾斜流量和资源进行推广,并几乎屏蔽了除豆包以外所有AI应用的投放。 巨量引擎是字节跳动旗下综合的数字化营销服务平台。根据AppGrowing平台,2024年10月字节跳动的豆包App投放了2200万元,其中78%左右也投向巨量广告/千川平台,而21.98%投向腾讯广告(广点通),字节内部流量作用凸显。 另一方面,字节投入大量广告,为AI原生应用启动引流,用户数量快速增长。 伽马数据显示,24年10月国内头部AI应用广告投放金额超4亿元,广告投放金额居前的5家公司中,即梦、豆包、猫箱全部为字节旗下产品。在广告投放支持下,根据AI产品榜,豆包实现24年7月MAU从904万陡然上升至25年8月的5127万,24年10月以近7000万月活用户在中国AI产品中断崖式领先。 图表35:2024年Q3和10月AI大模型APP投流统计 资料来源:AppGrowing,钛媒体,中邮证券研究所 请参阅附注免责声明 图表36:截止至2024年11月国内十大AI应用产品 投放金额(万元) 资料来源:财联社微信公众号,中邮证券研究所 图表37:豆包与同类产品MAU对比(万) 资料来源:新皮层NewNewThing公众号,中邮证券研究所 25年DS短期冲击豆包流量,而豆包整体MAU稳定性最强,持续保持向上增长。 ■25年1月,Deepseek在国内掀起“模型平权”,DSAPP/网页端均迅速取得用户青睐,网页端1、2月MAU环比 $+2230.06\%$ 、 $+122.73\%$ ,而3月起DS网页端MAU环比开始下滑,其他元宝、文小言等也或多或少在网页/APP出现MAU环比下降现象。 对于豆包而言,DS冲击虽使豆包APP/网页端MAU环比增速由24年12月的 $18.64\%$ 、 $48.25\%$ 降至25年1月的 $10.47\%$ 、 $10.42\%$ 。然而在整个25年,豆包APP、网页端MAU并未出现环比下降。25年11月,豆包APP/网页端MAU分别为1.68、0.93亿,环比 $+5.33\%$ 、 $+4.84\%$ ,依旧处于国产原生AI应用第一梯队。 > 随着AI产业落地持续加速,截至2025年9月底,豆包大模型日均Tokens调用量已突破30万亿,相比今年5月底增长超 $80\%$ 。在企业市场,IDC报告显示,2025年上半年中国公有云大模型服务市场,火山引擎以 $49.2\%$ 的份额占比位居中国第一。 图表38:豆包与同类产品APP端MAU对比 (百万) 图表39:豆包与同类产品网页端MAU对比 (百万) 图表40:豆包大模型日均token使用量自发布增长253倍 资料来源:AI产品榜微信公众号,中邮证券研究所 资料来源:APPSO微信公众号,中邮证券研究所 > 2025年12月初,字节跳动豆包团队与中兴合作,发布了搭载豆包手机助手技术预览版的工程样机。其核心卖点在于,用户通过语音指令,即可让AI助手完成跨多个应用的复杂操作(如全网比价下单),实现从“语音交互”到“系统级操作”的跨越。 > 豆包手机助手虽短期受制于主流应用开放权限,提前引爆了生态主导权的争夺战,然而其发布验证了AI手机的可行性,未来商业模式的探索或推动AI手机走向大众。我们认为,系统级AI重构人机交互是大势所趋,手机作为端侧重要角色具备独特价值,豆包手机作为“样板间”,未来或与二线手机品牌形成绑定关系,以其先发优势助力带来份额突围机会。 图表41:豆包手机助手技术预览版 # 豆包手机助手发布技术预览版 交互|多模态生成|操作手机|更懂用户|操作手机Pro # 图表42:豆包关于调整AI操作手机能力的说明 1、限制刷分、刷激励的使用场景:部分App厂商推出激励机制的初衷,是鼓励真实用户的主动交互行为,不希望此类设计被AI领取。这一诉求我们充分理解,因此会对这部分能力进行限制。 2、进一步限制金融类应用的使用:银行、互联网支付等金融场景,直接关联用户的资金安全,虽然手机助手在敏感操作时都需要用户授权,但审慎起见,豆包手机助手也将暂时下线操作这类APP的能力。我们也会积极与相关厂商沟通,希望共同制定清晰、安全的AI操作行为准则。 3、限制部分游戏类使用场景:考虑到部分游戏场景涉及到竞技排名,为了保证公平,暂时下线部分游戏场景的AI使用能力。 目前,我们也在积极寻求与各应用厂商的深度沟通,希望推动形成更加清晰、可预期的规则,避免用一刀切的方式否定用户合理使用AI的权利。 资料来源:豆包手机助手微信公众号,中邮证券研究所 # 3.3 生成式AI重构传统应用,提升用户体验与效率 > 豆包大模型赋能字节内部产品,覆盖亿级用户与内容,提升用户体验与效率。豆包大模型已经被应用于字节跳动旗下抖音、巨量引擎、飞书等50多个业务,提供强有力的技术支持,使其在营销、电商、办公、创作等多场景中的业务对接效率显著提升,产品使用体验得到进一步优化。 > 抖音电商:火山引擎联合抖音电商推出的“AI场景+商家经营提效解决方案”,基于豆包语音模型、大语言模型和视觉模型等AI技术,在电商的货架场、直播场、客服场提供了AI生图生视频、AI练播房、AI客服助手等AI系列商家经营提效工具,助力品牌、达人机构等商家智慧增长,开启内容电商新增量。其中,某消费电子头部品牌抖音矩阵规模2000+,由全国12个一级战区、超50家代理商旗下的线下零售商门店账号组成,其中能开播的门店数量超过600个。该品牌是抖音电脑门类top1品牌,其GMV的35%由门店直播带来,全面提升了品牌声量和整体销售。 > 我们认为,原有抖音、今日头条等业务是字节的现金流基本盘,与豆包起到协同发展的作用。根据QuestMobile,2025年9月抖音MAU高达9.36亿用户,在国内移动互联网APP中排名Top5。原有业务能为豆包引流,使其做大规模并完善模型。而豆包大模型也可赋能原有产品线,提升其盈利能力并进一步支持豆包等AI原生应用的发展。目前,AI赋能原有产品线还处于初步探索阶段,未来随着AI应用走深,此业务线有望迎来第二增长曲线。 图表43:豆包大模型联合抖音电商产品图 <table><tr><td>产品</td><td>内容</td></tr><tr><td>直播洞察</td><td>结合抖店官方数据及AI技术,提供直播间数据复盘及增长归因、主播量化考核、讲解节奏优化、话术润色等功能,保障直播顺畅进行,助力商家更高效的内容创作,提升消费者在直播间的互动转化。</td></tr><tr><td>矩阵管家</td><td>基于抖音电商官方数据+豆包大模型+火山引擎技术,提供多门店、经销商、员工矩阵账号管理的全流程工具,解决直播间数量多、经销商难管理、价格难统一、激励体系欠缺、经销商不会播等问题。</td></tr><tr><td>策略人群洞察</td><td>基于公域数据技术,洞察品牌专属人群,并以此为基础为商家提供内容创意策略、达人筛选、精准投流、投后分析等精细化服务。</td></tr><tr><td>AI练播房</td><td>基于抖店官方商品、促销、卖点、治理等核心数据,通过AI生成直播话术、模拟直播互动、综合评测模型以及直播优化建议,护航新商开播,解决新商不会播、一播就错、播了没效果的经营痛点。</td></tr><tr><td>智能创作云</td><td>通过图文工具、视频混剪等内容生产利器,帮助商家和服务商快速生成大规模、不重复的营销物料,实现低成本获客增长。</td></tr></table> 资料来源:AI产品榜微信公众号,中邮证券研究所 图表44:火山引擎AI客服和电商营销案例 # 腾讯:基于核心业务有序投入算力,应用重视可变现 4.1 业务主导资本开支投入,腾讯云全面适配兼容国产芯片 4.2 C端:元宝借力DS渗透之风快速发展,打通原生智能体与应用+智能体 4.3 B端:AI能力成为业务增长新基因,深度融入广告、游戏 # 4.1 业务主导资本开支投入,腾讯云全面适配兼容国产芯片 > 相较于阿里、字节资本开支的高投入,腾讯采取稳中有进的战略,足以满足内部业务开展。 > 2025年三季报,腾讯明确下调资本支出指引范围,金额仅略高于2024年。2025Q2、Q3,腾讯分别实现资本开支191.07、129.83亿元,同比变化 $+118.89\%$ 、 $-24.05\%$ 环比 $-30.46\%$ 、 $-32.05\%$ 。今年年初,腾讯指引总资本支出占收入的比例为低十位数百分比,而二三季度持续受海外出口管制等因素影响导致“缺芯”,资本开支环比连续下滑,使得公司在三季度财报宣布进一步下调资本开支。与此同时,腾讯总裁刘炽平就芯片供应问题作了解释,称公司当前的GPU储备充足,足以满足内部使用。 图表45:腾讯资本开支及增速 资料来源:Wind,公司财报,中邮证券研究所 # 4.1 业务主导资本开支投入,腾讯云全面适配兼容国产芯片 > 腾讯云依托异构计算平台整合多种芯片资源,向外界提供高性价比的AI算力。目前,整个腾讯云异构计算平台对国产芯片做了全面的兼容和适配。为加速Agent落地,腾讯持续提升AI能力栈,推出全新的AgentInfra解决方案AgentRuntime。AgentRuntime方案集成执行引擎、云沙箱、上下文服务、网关、安全可观测五大组件,以此为Agent提供更安全、可信、可管理、可观测的计算能力。同时,腾讯云还推出专家服务智能体CloudMate,进一步用Agent改造Infra服务,打造主动服务的云。 > 我们认为,腾讯资本开支策略是在确保内部需求与财务健康的前提下,以软件和生态优化来应对外部挑战,追求AI技术与现有核心业务更深度融合的、可持续的回报路径。与阿里、字节资本开支战略定位的差异来源于如下考量:1)AI被腾讯视为“增长引擎”而非“生存之战”。阿里因电商主业承压,将AI提升到关乎未来的战略高度,采取较高的战略投入,而腾讯的核心业务(游戏、社交、广告)仍处于健康成长期,AI被视为驱动现有业务效率提升和收入增长的“引擎”或“工具”。2)微信、QQ独特的优势,使得腾讯能够以业务养技术,以场景促应用。腾讯最大的护城河是其庞大的C端生态(微信、QQ),这使得它能将海量内部业务作为AI的“第一试验场”,打磨成熟后再通过腾讯云对外开放。其AI收益更多体现在广告精准度提升、游戏内容生成效率等难以量化但切实存在的业务增益上。这种“内生性”优势,降低了对通过巨额资本开支快速建立外部优势的依赖。 图表46:腾讯依托异构算力向外提供高性价比AI算力 资料来源:智东西微信公众号,中邮证券研究所 > 不同于字节的“AI应用工厂”模式,腾讯在AI原生应用无论是产品数量还是推广节奏前期都较为克制,发布的产品主要为混元大模型语言、图片和视频能力的体现,应用场景主要为办公助手、医疗工具等领域。 > 腾讯元宝对标字节豆包,充分利用腾讯生态优势,AI搜索整合微信等信息来源,同时支持与腾讯文档等应用跨平台联动。 ■2024年5月,腾讯基于混元大模型能力推出全能AI助手“腾讯元宝”,集AI搜索、AI总结、AI写作、AI多模态、智能体创建能力为一体。 腾讯元宝接入了微信搜一搜、搜狗搜索,内容涵盖微信公众号、微信视频号、QQ音乐等资源,并通过AI搜索增强,确保内容的高时效性。根据新榜监测,微信公众号在2023年有超4.48亿篇文章产出量,以及超25万篇阅读数为10万+的爆款文章,构成了一座信息富矿。 > 24年腾讯元宝整体推广节奏较为克制,元宝APP/网页版MAU落后于国内可比chatbot产品。根据AI产品榜,24年12月,腾讯元宝APP/网页版MAU分别为291、154万,而同期豆包APP/网页版MAU分别为7116、3177万。 图表47:腾讯生成式AI应用布局 <table><tr><td>团队</td><td>类型</td><td>产品</td></tr><tr><td>混元大模型团队</td><td>聊天</td><td>腾讯元宝</td></tr><tr><td rowspan="3">腾讯AI Lab</td><td rowspan="3">语言</td><td>Effidit</td></tr><tr><td>腾讯翻译君</td></tr><tr><td>TranSmart</td></tr><tr><td>腾讯ARC</td><td>图像</td><td>ARC</td></tr><tr><td rowspan="3">腾讯云</td><td>医疗</td><td>腾讯觅影</td></tr><tr><td>视频</td><td>腾讯智影</td></tr><tr><td>电商</td><td>腾讯云智绘</td></tr><tr><td rowspan="3">微信</td><td rowspan="3">教育</td><td>腾讯小微</td></tr><tr><td>小微助手(微信内置功能)</td></tr><tr><td>AI问书(微信读书内置功能)</td></tr><tr><td>腾讯会议</td><td>办公</td><td>AI小助手(腾讯会议内置功能)</td></tr><tr><td>腾讯音乐</td><td>陪伴</td><td>未伴(已下架)</td></tr></table> 资料来源:ZFinance微信公众号,中邮证券研究所 图表48:元宝APP与可比产品MAU(万)及环比增速对比 资料来源:AI产品榜微信公众号,中邮证券研究所 > 腾讯在25年借力DS爆火全国打开AI应用的大众市场之势,全力推动元宝发展,元宝MAU实现跨越式增长。 ■25Q1,DS爆发式增长在全球掀起AI应用普及热浪,在AI聊天机器人赛道,R1的发布直接和间接带来至少超2亿的用户增量。该季度,中国APP/网页端AI聊天机器人蓬勃发展,APP端月活突破3.2亿,环比 $24Q4 + 161.12\%$ ;网页端月活突破1.5亿,环比 $24Q4 + 39.58\%$ 。 ■25年2月,腾讯先后宣布元宝接入Deepseek-R1满血版;微信搜索上线“AI搜索”功能,并接入DeepSeek-R1提供的“深度思考”服务。元宝2月APP/网页版MAU分别为1312、1387万,环比 $+265.46\%$ 、 $740.61\%$ ;3月APP/网页版MAU分别为3884、3823万,环比 $+196.04\%$ 、 $175.63\%$ 。4月及之后网页版MAU随DS有环比下滑趋势,而APP端保持稳健增长。 > 腾讯借力DS发展具有长期战略价值。首先,腾讯意在抢占AI入口,弥补市场滞后,通过元宝整合DS-R1模型,迅速跻身下载量第二的AI应用,争夺用户流量入口,避免被竞争对手压制。其次,腾讯正在构建生态闭环,强化数据协同,元宝成为串联各场景的核心枢纽,形成“入口-功能-传播”的三角闭环,为后续模型优化和精准推荐提供基础。此外,腾讯平衡自研与外部技术,降低风险,通过“双核驱动”即利用外部技术快速满足用户需求,又为自研模型争取迭代时间。 图表49:AI聊天机器人MAU的季度变化 资料来源:Xsignal《季载录·春|Xsignal全球AI应用行业季度报告|2025》,中邮证券研究所 图表50:元宝与同类产品APP端MAU对比(百万) 资料来源:AI产品榜微信公众号,中邮证券研究所 图表51:元宝与同类产品网页端MAU对比(百万) 资料来源:AI产品榜微信公众号,中邮证券研究所 33 > 腾讯C端基于元宝,打通原生智能体与应用+智能体。25年9月,腾讯在“2025腾讯全球数字生态大会”上表示,元宝目前已跻身国内DAU(日活跃用户数)前三的AI原生应用,日提问量已达年初月总量级别(相当于日提问量相比年初暴增30倍),并与微信、腾讯会议、腾讯文档,腾讯视频、QQ音乐等10余款核心应用深度打通,进一步提升了用户在生活、办公等多场景下的体验和效率,成为腾讯AI生态的关键连接点。此外,imac知识库文件数量已经突破1亿,满足人们对深度知识分享和获取的需求。QQ浏览器的AI月活数,比4月增长了17.8倍。 > 腾讯微信紧握社交入口,与元宝深度协同,发展智能体能力。2025Q3,微信及WeChat的环比月活账户数达14.14亿,同比 $+2\%$ 。AI方面,腾讯丰富了微信的AI功能,为用户提供新服务,并推动元宝更广泛的使用,取得了积极的成效。 图表52:元宝打通原生智能体与应用+智能体 资料来源:腾讯微信公众号,中邮证券研究所 图表53:元宝融入微信社交生态 # 4.3 B端:AI能力成为业务增长新基因,深度融入广告、游戏 > 腾讯深谙AI与业务场景深度融合之道,发挥其拥有广泛的前端应用场景的优势,比如社交、游戏、广告、企业服务等领域。AI战略聚焦于“产业实用”,与原有业务紧密结合,关注AI技术的实际应用价值和商业落地,并随着模型能力的迭代,有望创造新的价值增量。 > 腾讯广告妙思:2024年1月4日,腾讯广告正式发布了基于腾讯混元大模型的一站式AI广告创意平台——腾讯广告妙思,立足行业痛点,实现了“AIGC创意生产-直联投放流程-素材快速过审”的全链路打通,广告创意生产与投放从此进入技术驱动的时代。 > 腾讯广告妙问:2024年8月底,腾讯广告发布了全流程AI营销助手——妙问,可以帮助用户解答在广告投放中遇到的问题。 > 我们认为,广告AI模型改进显著提升客户精准投放的效果,推动腾讯广告业务实现良性增长。2025Q3,腾讯营销服务业务实现营收362亿元,同比 $+21\%$ 。受益于用户参与度及广告价值率的提高,以及AI驱动的广告定向所带来的eCPM增长,腾讯当季度广告曝光量有所提升,且所有主要行业的广告主投放均有所提升。当季度,腾讯推出了智能投放产品矩阵腾讯广告AIM+,支持广告主自助配置定向、出价以及版位,并优化广告创意,从而提升客户的营销投入回报。 图表54:腾讯广告妙思:用AI激发创意潜能 图表55:腾讯广告妙问解答用户问题 图表56:腾讯营销服务业务及增速情况 > 腾讯游戏AI引擎GiiNEX:在GDC 2024大会上,腾讯发布自研游戏AI引擎GiiNEX。根据Gamelook,GiiNEX引擎基于前沿算法模型、高效训练平台以及在线推理引擎三大核心技术,并通过自研的生成式AI和决策AI模型,支持游戏从研发到运营的全生命周期需求。 1)该引擎借助大模型等生成型AI技术,可以面向AI驱动的NPC、场景制作、内容生成等领域,提供包括3D图形、动画、3D城市、剧情、关卡以及音乐等多种AIGC能力,帮助开发者们提升高品质内容生成效率。 2)将决策AI技术应用到游戏研发测试、模拟不同类型玩法等多种场景,可以提升玩法创新迭代效率,让游戏更快速适应玩家个性化需求和变化的市场趋势。 > AI在游戏创作过程中的价值已有显现,AI赋能有望为腾讯游戏业务带来增量价值。公司应用AI工具加速游戏内容制作,基于AI技术推出更拟真的虚拟队友和非玩家角色采用AI驱动的营销举措以吸引新玩家提升参与度,促进了本土及国际游戏的受欢迎程度及收入增长。2025Q3,公司游戏收入实现营收636亿元,同比 $+23\%$ 。其中本土和海外市场游戏收入分别为428、208亿元,同比 $+15\%$ 、 $+43\%$ 。 图表57:游戏AI引擎GiiNEX赋能游戏全生命周期 资料来源:Gamelook,腾讯网,中邮证券研究所 图表58:腾讯游戏业务及增速情况 资料来源:Wind,中邮证券研究所 # 华为:聚焦基础设施国产对标,芯片再崛起 5.1 重投入与硬核自研,芯片与架构的持续突围 5.2 超节点“集群”优势,以系统规模实现整体性能跃升 > 华为坚持每年将 $10\%$ 以上的销售收入投入研究与开发,巨额研发投入为算力等前沿技术探索提供坚实基础。华为近十年累计投入的研发费用超过人民币12490亿元,2024年,研发费用支出为人民币1797亿元,同比 $+9.11\%$ ,约占全年收入的 $20.8\%$ 。 华为全联接大会2025发布了一系列即将上市和规划中的新品,从芯片架构到超节点,从通用算力到智能算力。 ■1)昇腾芯片方面,华为面向未来三年,规划了昇腾950PR/昇腾950DT、昇腾960和昇腾970三个系列产品,分别将于2026年第一季度和2026年第四季度,以及2027年第四季度、2028年第四季度上市,围绕算力一年翻一番的节奏,以及更易用、更多数值类型、更高带宽持续演进,持续满足AI算力不断增长的需求。 2)超节点方面,华为在Atlas900A3SuperPoD(CloudMatrix384超节点)基础上,还将推出Atlas950SuperPoD和Atlas960SuperPoD,分别将于2026年第四季度和2027年第四季度上市。为解决大规模超节点对互联技术提出重大挑战,华为开创的灵衢新型互联协议,支撑万卡超节点架构。同时,华为正在开发Atlas950SuperCluster等大规模超节点新品。 3)在通算领域,华为规划了鲲鹏950与鲲鹏960,分别将于2026年第四季度和2028年第一季度上市,围绕支持超节点和更多核、更高性能持续演进。华为还推出了全球首个通算超节点,最大16节点、最大内存48TB、支持内存/SSD/DPU池化,将于2026年第一季度上市。 图表59:华为研发费用情况 资料来源:华为官网,华为年报,中邮证券研究所 图表60:华为昇腾芯片路径图 资料来源:华尔街见闻,中邮证券研究所 > 华为表示AI算力不等于芯片性能,其战略是通过“超节点+集群”的解决方案,有效弥补单芯片性能短板,用群计算补单芯片,实现整体算力的跃升。 > 为应对单芯片算力局限问题,华为面向超节点提出灵衢互联协议:一种面向超节点的互联协议,将I/O、内存访问和各类处理单元间的通信统一在同一互联技术体系,实现数据高性能传输、算力高效协同、资源统一管理和灵活组合,是超节点参考架构的基础。华为从2019年正式立项灵衢项目,整合了公司在IT基础设施、数据中心接口开发、集群工程等领域的数十年积累——从鲲鹏、昇腾处理器到DPU、Switch、SSD存储介质,华为先将灵衢协议集成到自研硬件的研发流程中,通过硬件迭代反哺协议优化,最终实现灵衢1.0的产品化落地,并完成大规模集群交付验证。华为全联接大会2025,华为发布了灵衢面向超节点的协议并开放灵衢2.0技术规范。 > 目前,灵衢1.0已在华为内部及头部互联网客户的384卡超节点中完成规模验证,华为计划2026年底将灵衢超节点规模提升至8192卡,后续逐步扩展至15488卡,目的是为模型厂商提供无约束的硬件平台,避免人为设定规模上限制约创新,将算力基础设施未来核心竞争力从“单芯片性能竞赛”向“系统协同效率”转移。 图表61:灵衢部署示意 > 25年4月,华为发布384超节点,凭借其颠覆性的系统架构设计与全栈技术创新,在多项关键指标上实现对英伟达旗舰产品GB200 NVL72的超越,标志着中国在人工智能基础设施领域实现里程碑式突破。 CloudMatrix 384由384颗昇腾910C芯片组成,这些芯片通过全互联拓扑结构连接。其中的权衡很简单:昇腾芯片的数量是英伟达 Blackwell芯片的五倍,这足以弥补每颗昇腾芯片的性能仅为后者三分之一的差距。 完整的CloudMatrix系统现在可以提供300 PFLOPs的密集型BF16计算能力,几乎是GB200 NVL72的两倍;凭借超过3.6倍的总内存容量和2.1倍的内存带宽,为大规模AI训练和推理提供了更高效的硬件支持。 > 截至25年9月,Atlas 900 A3 SuperPoD超节点(CloudMatrix384超节点),累计部署300多套,服务于互联网、金融、运营商、电力、制造等行业的20多个客户。 图表62:华为CloudMatrix 384实物图 资料来源:华为,Semianalysis,中邮证券研究所 图表63:华为CloudMatrix 384与英伟达GB200 NVL72性能对比图 <table><tr><td colspan="5">Key Capabilities - Huawei Ascend 910C Cloud Matrix 384 vs Nvidia GB200 NVL72</td></tr><tr><td colspan="5">Chip and Package Level</td></tr><tr><td></td><td>Unit</td><td>GB200</td><td>Ascend 910C</td><td>Huawei vs Nvidia</td></tr><tr><td>BF16 dense TFLOPS</td><td>TFLOPS</td><td>2,500</td><td>780</td><td>0.3x</td></tr><tr><td>HBM capacity</td><td>GB</td><td>192</td><td>128</td><td>0.7x</td></tr><tr><td>HBM bandwidth</td><td>TB/s</td><td>8.0</td><td>3.2</td><td>0.4x</td></tr><tr><td>Scale Up Bandwidth</td><td>Gb/s uni-di</td><td>7,200</td><td>2,800</td><td>0.4x</td></tr><tr><td>Scale Out Bandwidth</td><td>Gb/s uni-di</td><td>400</td><td>400</td><td>1.0x</td></tr><tr><td colspan="5">System Level</td></tr><tr><td></td><td>Unit</td><td>Nvidia GB200 NVL72</td><td>Cloud Matrix CM384</td><td>Huawei vs Nvidia</td></tr><tr><td>BF16 dense PFLOPS</td><td>PFLOPS</td><td>180</td><td>300</td><td>1.7x</td></tr><tr><td>HBM capacity</td><td>TB</td><td>13.8</td><td>49.2</td><td>3.6x</td></tr><tr><td>HBM bandwidth</td><td>TB/s</td><td>576</td><td>1,229</td><td>2.1x</td></tr><tr><td>Scale Up Bandwidth</td><td>Gb/s uni-di</td><td>518,400</td><td>1,075,200</td><td>2.1x</td></tr><tr><td>Scale Up Domain Size</td><td>GPUs</td><td>72</td><td>384</td><td>5.3x</td></tr><tr><td>Scale Out Bandwidth</td><td>Gb/s uni-di</td><td>28,800</td><td>153,600</td><td>5.3x</td></tr><tr><td>All-In System Power1</td><td>W</td><td>145,000</td><td>599,821</td><td>4.1x</td></tr><tr><td>All-in Power per BF16 dense FLOP</td><td>W/TFLOP</td><td>0.81</td><td>2.00</td><td>2.5x</td></tr><tr><td>All-in Power per memory bandwidth</td><td>W per TB/s</td><td>251.7</td><td>488.1</td><td>1.9x</td></tr><tr><td>All-in Power per memory capacity</td><td>kW/TB</td><td>10.5</td><td>12.2</td><td>1.2x</td></tr><tr><td colspan="5">1. All-in System Power is total cluster power including scale-out networking, storage, etc.</td></tr></table> 资料来源:华为,英伟达,Semianalysis,中邮证券研究所 > 华为发布了最新超节点产品Atlas950SuperPoD和Atlas960SuperPoD超节点,分别支持8192及15488张昇腾卡,在卡规模、总算力、内存容量、互联带宽等关键指标上全面领先,在未来多年都将是全球最强算力的超节点。 > Atlas 950 SuperPoD,计划2026年Q4上市:支持8192张基于Ascend 950DT的昇腾卡。FP8算力达到8EFLOPS,FP4算力达到16EFLOPS,互联带宽达到16PB/s。Atlas950超节点的规模是英伟达NVL144的56.8倍,总算力是其6.7倍,内存容量是其15倍,达到1152TB;互联带宽是其62倍,达到16.3PB/s。 > Atlas 960 SuperPoD,计划2027年Q4上市:最大可支持15488张Ascend 960/昇腾950DT,总算力、内存容量、互联带宽在Atlas 950基础上再翻倍,其中FP8总算力将达到30EFLOPS,而FP4总算力将达到60EFLOPS,内存容量达到4460TB,互联带宽达到34PB/s。 图表64:华为Atlas 950/960(上下)超节点关键参数 基于超节点,华为同时发布了全球最强超节点集群,分别是Atlas 950 SuperCluster和Atlas 960 SuperCluster,算力规模分别超过50万卡和达到百万卡,是当之无愧的全世界最强算力集群。 > Atlas 950 SuperPoD,预计于2026年Q4上市。由64个Atlas 950超节点互联组成,52万多片昇腾950DT组成为一个整体,可提供高达524FP8 EFLOPS的AI训练性能和高达1 FP4 ZFLOPS的AI推理性能(更准确地说是MXFP4),仅次于领先的AI超级计算机,例如甲骨文去年推出的OCI超级集群,该集群运行131072个B200GPU,并提供高达2.4FP4 ZFLOPS的峰值推理性能。 >Atlas960SuperPoD,预计于2027年Q4上市。集群规模进一步提升到百万卡级,FP8总算力达到2ZFLOPS,FP4总算力达到4ZFLOPS。 图表65:华为Atlas 950/960(上/下)集群关键参数 资料来源:华为Youtube官方号,中邮证券研究所 > 华为率先把超节点技术引入通用计算领域,发布全球首个通用计算超节点TaiShan 950 SuperPoD,预计上市时间为26Q1。TaiShan 950超节点基于鲲鹏950,最大支持16节点,32个处理器,最大内存48TB;同时支持内存、SSD、DPU池化。基于TaiShan 950超节点打造的GaussDB读写架构无需对数据库进行分布式改造,性能提升2.9倍,能够彻底取代各种应用场景的大型机和小型机以及Exadata数据库一体机。除了核心数据库场景,TaiShan 950超节点在更广泛的场景里,表现也很亮眼:比如虚拟化环境的内存利用率提升 $20\%$ ,在Spark大数据场景,实时数据处理时间缩短 $30\%$ 。 > 我们认为,华为已构建出一条以全栈自主创新为基石、以“超节点+集群”为核心架构、以开放生态为放大器的独特“算力链”。面对全球AI算力竞争与特定的技术环境,华为的战略核心在于:不以单纯追逐单芯片算力峰值为目标,而是通过系统级的工程架构创新,将计算、存储、网络进行深度融合,打造出规模化、高效能、可持续的AI算力底座。 图表66:华为TaiShan 950 SuperPoD关键参数 资料来源:量子位微信公众号,中邮证券研究所 # 投资建议与风险提示 6.1 相关标的 6.2 风险提示 # 6.1 相关标的 建议关注: 1)阿里链:数据港、石基信息、光云科技、朗新集团、恒生电子、卫宁健康、蓝色光标、税友股份、值得买、新华都、易点天下、浙文互联、新炬网络、润建股份、浙大网新、杭钢股份、万国数据、浪潮信息、中恒电气、亚信科技等; 2)字节链:汉得信息、新致软件、乐鑫科技、润欣科技、润泽科技、大位科技、光环新网、世纪互联、四维图新、掌阅科技、梦网科技、海天瑞声、天键股份、中科蓝讯、炬芯科技、视觉中国等; 3)腾讯链:科华数据、泛微网络、微盟集团、博思软件、东华软件、首都在线、拓尔思、华宇软件、长亮科技、海天瑞声、天地在线、盛通股份、佳发教育、世纪华通、奥飞数据、宝信软件、云赛智联等; 4)华为链:神州数码、拓维信息、软通动力、常山北明、博睿数据、卓易信息、浩瀚深度、普元信息、润和软件、润达医疗、道通科技、华丰科技等。 5)Agent:金山办公、鼎捷数智、视源股份、泛微网络、致远互联、用友网络、汉得信息、赛意信息、合合信息、福昕软件、税友股份、润达医疗、同花顺、恒生电子、万兴科技、科大讯飞、金桥信息等。 6)AI端侧:虹软科技、小米集团、云天励飞、科大讯飞、方直科技、星环科技、中科创达、传音控股、中兴通讯、乐鑫科技、瑞芯微、中科蓝讯、歌尔股份、恒玄科技、博士眼镜、优必选等 7)国内算力:寒武纪、海光信息、摩尔线程、沐曦股份、云天励飞、浪潮信息、曙光数创、亿都(国际控股)、超讯通信、瑞晟智能、华丰科技、神州数码、软通动力、烽火通信、拓维信息、四川长虹、润建股份、数据港、润泽科技、光环新网、科华数据、奥飞数据、优刻得、卡莱特、安博通等。 8)海外算力:新易盛、中际旭创、天孚通信、东山精密、长光华芯、腾景科技、福晶科技、长芯博创、源杰科技、华工科技、光迅科技、太辰光、仕佳光子、胜宏科技、景旺电子、沪电股份、生益电子、深南电路、东山精密、兴森科技、工业富联、英维克、高澜股份、申菱环境、巨化股份、川环科技、同飞股份、飞荣达、鸿腾精密、麦格米特、欧陆通、禾望电器、盛弘股份、杰华特、紫光股份、锐捷网络、中兴通讯、菲菱科思等。 # 6.2 风险提示 > 地缘政治冲与贸易风险:地缘政治冲突可能导致跨境贸易壁垒升级(如关税提高、技术出口限制),例如某国对核心芯片实施出口管制,会直接影响上游零部件供应; 技术迭代不及预期:AI大模型或AI Agent迭代放缓,影响AI商业化进展和客户付费意愿; > 国内AI商业化进展不及预期:美国AI应用虽取得一定进展,而国内或由于客户对AI付费意愿和使用习惯与国外存在差异,商业化进展不及预期; > 算力供应不及预期:国内算力供给未能及时填补需求,则可能影响大模型训练及推理的节奏; 行业竞争加剧风险:AI作为新型技术领域,行业竞争加剧将对企业盈利端造成影响。 # 感谢您的信任与支持! # THANK YOU 陈涵泊 SAC编号:S0120524040004 邮箱:chenhanbo@cnpsec.com 李佩京 SAC编号:S0120524090004 邮箱:lipeijing@cnpsec.com 王思 SAC编号:S1340525080002 邮箱:wangsi@cnpsec.com # 分析师声明 撰写此报告的分析师(一人或多人)承诺本机构、本人以及财产利害关系人与所评价或推荐的证券无利害关系。 本报告所采用的数据均来自我们认为可靠的目前已公开的信息,并通过独立判断并得出结论,力求独立、客观、公平,报告结论不受本公司其他部门和人员以及证券发行人、上市公司、基金公司、证券资产管理公司、特定客户等利益相关方的干涉和影响,特此声明。 # 免责声明 中邮证券有限责任公司(以下简称“中邮证券”)具备经中国证监会批准的开展证券投资咨询业务的资格。 本报告信息均来源于公开资料或者我们认为可靠的资料,我们力求但不保证这些信息的准确性和完整性。报告内容仅供参考,报告中的信息或所表达观点不构成所涉证券买卖的出价或询价,中邮证券不对因使用本报告的内容而导致的损失承担任何责任。客户不应以本报告取代其独立判断或仅根据本报告做出决策。 本报告所载的意见、评估及预测仅为本报告出具日的观点和判断。该等意见、评估及预测无需通知即可随时更改。过往的表现亦不应作为日后表现的预示和担保。在不同时期,中邮证券可能会发出与本报告所载意见、评估及预测不一致的研究报告。 中邮证券及其所属关联机构可能会持有报告中提到的公司所发行的证券头寸并进行交易,也可能为这些公司提供或者计划提供投资银行、财务顾问或者其他金融产品等相关服务。 《证券期货投资者适当性管理办法》于2017年7月1日起正式实施,本报告仅供中邮证券签约客户使用,若您非中邮证券签约客户,请取消接收、订阅或使用本报告中的任何信息。本公司不会因接收人收到、阅读或关注本报告中的内容而视其为签约客户。 本报告版权归中邮证券所有,未经书面许可,任何机构或个人不得存在对本报告以任何形式进行翻版、修改、节选、复制、发布,或对本报告进行改编、汇编等侵犯知识产权的行为,亦不得存在其他有损中邮证券商业性权益的任何情形。如经中邮证券授权后引用发布,需注明出处为中邮证券研究所,且不得对本报告进行有悖原意的引用、删节或修改。 中邮证券对于本申明具有最终解释权。 # 公司简介 中邮证券有限责任公司,2002年9月经中国证券监督管理委员会批准设立,是中国邮政集团有限公司绝对控股的证券类金融子公司。 公司经营范围包括:证券经纪,证券自营,证券投资咨询,证券资产管理,融资融券,证券投资基金销售,证券承销与保荐,代理销售金融产品,与证券交易、证券投资活动有关的财务顾问等。 公司目前已经在北京、陕西、深圳、山东、江苏、四川、江西、湖北、湖南、福建、辽宁、吉林、黑龙江、广东、浙江、贵州、新疆、河南、山西、上海、云南、内蒙古、重庆、天津、河北等地设有分支机构,全国多家分支机构正在建设中。 中邮证券紧紧依托中国邮政集团有限公司雄厚的实力,坚持诚信经营,践行普惠服务,为社会大众提供全方位专业化的证券投、融资服务,帮助客户实现价值增长,努力成为客户认同、社会尊重、股东满意、员工自豪的优秀企业。 # 投资评级说明 <table><tr><td>投资评级标准</td><td>类型</td><td>评级</td><td>说明</td></tr><tr><td rowspan="11">报告中投资建议的评级标准:报告发布日后的6个月内的相对市场表现,即报告发布日后的6个月内的公司股价(或行业指数、可转债价格)的涨跌幅相对同期相关证券市场基准指数的涨跌幅。市场基准指数的选取:A股市场以沪深300指数为基准;新三板市场以三板成指为基准;可转债市场以中信标普可转债指数为基准;香港市场以恒生指数为基准;美国市场以标普500或纳斯达克综合指数为基准。</td><td rowspan="4">股票评级</td><td>买入</td><td>预期个股相对同期基准指数涨幅在20%以上</td></tr><tr><td>增持</td><td>预期个股相对同期基准指数涨幅在10%与20%之间</td></tr><tr><td>中性</td><td>预期个股相对同期基准指数涨幅在-10%与10%之间</td></tr><tr><td>回避</td><td>预期个股相对同期基准指数涨幅在-10%以下</td></tr><tr><td rowspan="3">行业评级</td><td>强于大市</td><td>预期行业相对同期基准指数涨幅在10%以上</td></tr><tr><td>中性</td><td>预期行业相对同期基准指数涨幅在-10%与10%之间</td></tr><tr><td>弱于大市</td><td>预期行业相对同期基准指数涨幅在-10%以下</td></tr><tr><td rowspan="4">可转债评级</td><td>推荐</td><td>预期可转债相对同期基准指数涨幅在10%以上</td></tr><tr><td>谨慎推荐</td><td>预期可转债相对同期基准指数涨幅在5%与10%之间</td></tr><tr><td>中性</td><td>预期可转债相对同期基准指数涨幅在-5%与5%之间</td></tr><tr><td>回避</td><td>预期可转债相对同期基准指数涨幅在-5%以下</td></tr></table> # 中邮证券研究所 # 北京 邮箱:yanjiusuo@cnpsec.com 地址:北京市东城区前门街道珠市口东大街17号 邮编:100050 # 上海 邮箱:yanjiusuo@cnpsec.com 地址:上海市虹口区东大名路1080号大厦3楼 邮编:200000 # 深圳 邮箱:yanjiusuo@cnpsec.com 地址:深圳市福田区滨河大道9023号国通大厦二楼 邮编:518048 # 中邮证券 # CHINA POST SECURITIES