> **来源:[研报客](https://pc.yanbaoke.cn)** # 2026年度电子板块策略: # “先进存储+先进逻辑”助力国产化,AI加持产业大周期 证券分析师 姓名:葛星甫 资格编号:S1350524120001 邮箱:gexingfu@huayuanstock.com 证券分析师 姓名:刘晓宁 资格编号:S1350523120003 邮箱:liuxiaoning@huayuanstock.com 证券分析师 姓名:白宇 资格编号:S1350525030002 邮箱:baiyu@huayuanstock.com 证券分析师 姓名:王硕 资格编号:S1350524120002 邮箱:wangshuo@huayuanstock.com 1. 周期向上,AI共舞 2. 半导体:国产化深水区,“先进存储+先进制造”助力 3.AI:代际演绎,供应链变革 4. 端侧:模型变现,探寻端侧入口 ■ 全球半导体行业景气度上行。2025年,受益于人工智能应用及数据中心基础设施的强劲需求,逻辑芯片和存储芯片需求显著增长。根据Wind数据,自2025年二季度起,全球半导体营收持续环比上升,进一步印证行业景气度持续升温。根据世界半导体贸易统计协会(WSTS)数据,预计2025年全年将同比增长 $22.5\%$ 至7720亿美元,并且2026年行业上行趋势将延续,全球半导体销售额或接近1万亿美元。 ■ AI浪潮成为本轮周期重要驱动因素。根据SIA数据,从下游需求结构来看,计算机(以PC、服务器为主)和通讯产品(以智能手机为主)构成全球半导体需求的主要来源,2024年合计占比接近 $70\%$ 。受益于5G建设持续推进和智能手机市场复苏,通信设备市场2024年同比增长 $23.41\%$ ;依赖AI服务器需求拉动,传统PC市场2024年同比增长 $67.07\%$ 。消费与工业占比有所下滑,2024年占比分别为 $9.9\%$ 、 $8.4\%$ 。 全球半导体月销售额及环比增速 资料来源:Wind,SIA,华源证券研究所 全球半导体销售额按下游区分(十亿美元) AI数据中心在物理层面上看,本质上是一个由能源流、热流和数据流共同构成的巨型工业系统,根据功能的不同,又可以分为以下几个区域: - 能源供给区:包含高压配电、柴油发电机及储能模块,保障AI高功率运行。 热管理区:部署室外冷机、冷却塔及管网,解决高算力带来的高热密度挑战。 计算与网络区:核心计算单元与高性能网络交换单元的物理集群。 华为AI数据中心方案 ■ 参考下图展示,外部的电源和液冷系统延伸到机房内部,为机柜的稳定运行提供基础设施的保障,而对于机房内部,主要包含计算机柜、存储机柜、通讯机柜、电源设备、液冷设备。 参考右图,展示的是由英伟达NVL72机柜组建成的一个SuperPOD超节点解决方案,由“8台NVL72机柜+通讯机柜”构成。 数据中心技术设施 Main power distribution with Automatic Transfer Switch (A APC Symmetra PX500 (Uninterruptible power supply) DryCooler LU-VE Emerson Network Power climate cont SDMO Diesel generator Emerson Network Power chiller UPS batteries Servers, storage, networking equipment SuperPOD集群 # 机柜整体构造: 计算节点:18个计算托盘(上下分置 $10 + 8$ ),内部搭载Blackwell GPU。 - NVLink交换网络:9台交换机居中部署,构建scale-up全互联架构。 - 分区分压供电:顶部与底部各配置4组电源层,保障120kW+的超高功率稳定输入。 # 机柜内部部件展示: 全链路液冷:集成进出水歧管与冷却软管,实现芯片级精准散热。 - 无缆化趋势:采用Power Busbar(母排)替代传统电源线,结合铜背板(线缆模组)实现高密度盲插,优化风道与空间。 英伟达NVL72机柜 NVL72机柜内部结构展示 # GB200 计算托盘: - 核心算力架构:单托盘集成2颗GraceCPU与4颗BlackwellGPU,构成高密计算节点。 - 极致散热布局:全液冷覆盖,通过进出水快接头与机柜冷源对接。 高速I/O网络:集成ConnectX-7网卡与BlueField-3DPU,保障节点间数据的高速互联与安全卸载。 # NVLink交换托盘: - 集群神经网络:搭载2颗NVLink Switch芯片,提供机柜内GPU间的全互联通信。 统一架构设计:采用与计算托盘一致的物理尺寸、供电接口及液冷架构,实现机柜内的标准化盲插部署。 Compute tray DGX GB200 Compute Tray - Top view Switch tray BMC 1GbE port USB port for storage Switch management NVLink Switch Tray - Top view # 早期拓扑--V100代际: - 点对点网格互联:采用NVLink2.0技术,8个GPU之间形成立方体网格结构。 非全互联架构:GPU间并非全部直连,跨节点通信需要经过跳数,存在延迟瓶颈。 - PCIe 依赖:CPU与GPU的通信严重依赖紫色的PCIe Switches,带宽受限。 # 对比演进—DGX H100代际: - 引入NVSwitch:从“网格”进化为“交换”,实现8颗GPU任意两两之间的全速直连。 V100代际拓扑架构 DGX H100代际拓扑架构 DGX H100/200 System Topology The following figure shows the DGX H100/H200 system topology. # 典型CLOS网络: 通用设计:流量随机哈希负载分担,适用于一般云计算流量。 AI痛点:在AI集合通信场景下,容易发生哈希冲突,导致链路拥塞,降低集群整体效率。 # ■ Rail-Optimized(轨道优化)架构: - 物理隔离:构建多个独立的网络平面。图示中 Servers 的不同 GPU 分别连接到对应的 Rail 交换机。 - 极致并行:相同编号的GPU(如Server 1的GPU1和Server 8的GPU1)在同一个Rail平面内通信,无需跨平面路由。 Scale-out基石:这种拓扑最大限度减少了网络跳数和争抢,是实现InfiniBand/RoCE高性能集群扩展的核心逻辑。 传统CLOS网络架构 Rail-Optimized架构 # 为何需要ScaleAcross: - 单一设施瓶颈:10万卡级集群功耗太高,超过单体数据中心的承载上限。 分布式部署需求:必须将算力集群分散部署在同一园区的不同建筑,或同城相邻园区。 # 如何实现“跨域如跨柜”: - 长距离高速互联:采用800GLR4/FR4等中长距光模块技术,支持2km-10km的高速无损传输。 - 光互联架构升级:从传统的电互联转向全光互联,利用低延迟的光网络抵消物理距离带来的通信延迟,确保分布式训练的同步效率。 Scale-out用于实现跨园区级别的通信 # 独特的互联架构: - 统一协议:摒弃了NVLink与IB/Ethernet的区分,统一使用ICI(Inter-Chip Interconnect)协议处理所有通信。 - Intra-rack(柜内):利用DAC铜缆实现机架内TPU的近距离直连,降低成本与功耗。 - Inter-rack(跨柜):通过光互联连接至OCS交换机,实现跨机柜的动态路由。 # 硬件物理形态: - 高密计算托盘:单托盘集成 4 颗 TPU 芯片,采用液冷板覆盖散热。 - 去中心化设计:相比 NVIDIA 的 Switch 集中式交换,TPU 架构更依赖芯片间的直接互联,网络拓扑通常构建为 3D Torus 结构,并可以通过软件控制动态转为 Dragonfly 架构。 谷歌TPU计算机柜 TPU计算托盘 # Apollo Zone 集群架构: 集中式交换架构:OCS设备不分散部署,而是集中在Apollo Zone区域。 - 大规模光背板:单层楼面最大支持256台OCS单元,构建起庞大的数据中心级光互联网络。 - 全互联能力:通过这种高密度的OCS阵列,实现TPU集群间拓扑的软件定义与动态重构。 # Palomar OCS 内部构造: - 纯光交换核心:位于机箱中心,利用2D MEMS镜片阵列实现光束的物理偏转与无损交换,避免了电信号转换延迟。 精密控制系统: $\checkmark$ 高压驱动(High voltage cables):蓝色线缆传输高压电信号,毫秒级精准控制MEMS镜片角度。 抗震设计(Shock mounts):物理核心悬挂于减震结构上,保障光学对准的极致稳定性。 - 高密光纤接入:底部黄色区域为前面板光纤(Front panel optical fibers),承载海量TPU链路的接入。 谷歌OCS交换机柜 谷歌OCS交换机托盘 # 双光路闭环控制系统: - 全光数据通路:数据光经由 2D MEMS array 进行两次物理反射,实现任意端口间的无损交换。 - 高精实时对准:引入 $850 \mathrm{~nm}$ 的 Monitor light 和 Camera module,利用分光镜与信号光合束/分束,实现毫秒级的链路闭环校准。 # 核心组件——MEMS微振镜 - 微机电构造:采用镀金镜面以最大化反射率,通过引线键合连接控制电路。 - 静电梳齿驱动:利用Inner/Outer axis comb drives产生静电力,驱动镜片进行二维高精度偏转,实现光路的物理切换。 双光路闭环控制系统 MEMS微振镜 # 基础互联:ICI立方体构建 • 6维互联逻辑:单个TPU拥有6个ICI链路,分别对应X/Y/Z轴的正负方向。 混合介质: Copper (Intra-rack): 机柜内短距通信使用铜缆直连(如图中 To 133/233 等)。 √ Optical (Inter-rack): 跨机柜长距通信连接至 OCS(如图中 To 213/433 via OCS)。 默认拓扑:标准状态下构成3D Torus结构,适合高带宽、近邻通信的密集型计算任务。 # 进阶能力:OCS赋能动态拓扑切换 - 拓扑重构:利用OCS的光路切换能力,无需人工重新布线,即可改变TPU间的连接关系。 - Dragonfly 架构支持:针对需要低延迟、低跳数的全局通信任务,OCS 可将网络重构为高基数的 Dragonfly 拓扑,减少数据传输路径长度。 - 弹性扩容:如图所示,通过OCS链路将CubeA与CubeB动态互联,实现从64TPU到128TPU(4x4x8)甚至更大规模的线性扩展。 谷歌TPU方案拓扑图 # 对于数据中心而言,其关注的是总持有成本(TCO): TCO= CapEx+ OpEx - CapEx = CapExFacility + CapExPower + CapExCool + CapExNet + CapExIT - $\mathrm{OpEx} = \mathrm{OpEx}_{\text{energy}} + \mathrm{OpEx}_{\text{M&R}} + \mathrm{OpEx}_{\text{network}} + \mathrm{OpEx}_{\text{software}}$ # TCO结构重塑:IT为王 - CapEx核心:IT设备成本占据绝对大头,远超土建与机电成本。数据中心从“不动产属性”转向“高科技资产属性”。 • 网络支出: 光模块与交换机成本约为 $2000/server (注: 视互联层级而定)。 # 基础设施配套:高功率密度的代价 电力昂贵:为支撑高密算力,电力基础设施成本达$7.0/W,包括变压器、UPS、母排等。 制冷升级:液冷/风冷配套成本约$2.5/W,也是一笔显著的CapEx投入。 # 运营支出:电费与维护 持续投入: 维护费用高达$5000/server, 叠加能源消耗 (Energy $20-40/MWh), 构成了长期持有的主要成本。 Rearchitecting Datacenter Lifecycle for AI: A TCO-Driven Framework Table 3. TCO components for an example datacenter with DGX H100 [18] servers. <table><tr><td>Category</td><td>Component</td><td>Description</td><td>Example Cost ($)</td></tr><tr><td rowspan="5">CapEx</td><td>IT</td><td>Servers, racks, accelerators, storage</td><td>$375k/server [18]</td></tr><tr><td>Networking</td><td>Fabric switches, optics, structured cabling</td><td>$2000/server [59, 85]</td></tr><tr><td>Building</td><td>Site preparation, building shell, land, electrical and mechanical base infrastructure</td><td>$0.5/ft2 [29]</td></tr><tr><td>Power</td><td>Power infrastructure (Switchgear, transformers, UPS, PDUs, busbars, rack distribution)</td><td>$7.0/W [26, 116]</td></tr><tr><td>Cooling</td><td>Cooling infrastructure (chillers, CRAH/CRAC units, pumps, piping, liquid loops, airflow)</td><td>$2.5/W [103, 116]</td></tr><tr><td rowspan="4">OpEx</td><td>Networking</td><td>Port licenses, optics replacement, networking component power</td><td>$600/server [59, 82, 84]</td></tr><tr><td>Energy</td><td>IT load scaled by PUE, utility tariffs, demand charges</td><td>$20-40/MWh [35]</td></tr><tr><td>Maintenance</td><td>Spares, repairs, monitoring, water/treatment, field-replaceable units, failure-rate</td><td>$5000/server [102]</td></tr><tr><td>Software</td><td>Licenses, support contracts</td><td>$200/server</td></tr></table> 我们将数据中心系统拆解为五种核心能力,每一种能力都代表着技术变革和投资机会: ■ ‘算力’:超越摩尔定律。当晶体管很难再缩小时,未来的逻辑或是3D堆叠。不仅是HBM在堆叠,逻辑芯片预计通过 Hybrid Bonding 垂直堆叠。同时,为了解决数据搬运的功耗,存内计算预计将成为新的发展方向。 ■ ‘存力’:打破内存墙。通过CXL协议,可以把内存‘池化’,让CPU和GPU共享内存。预计会催生CXLSwitch芯片和内存扩展模块的全新市场。 ■ ‘传力’:先进铜退。随着速率达到224G,铜线的物理极限(集肤效应)到了。未来的趋势预计是硅光CPO(光电共封装)和全光交换(OCS)。 ■ ‘能力’:解决热与电的“焦虑”。单芯片功率突破1000W,风冷已经失效。浸没式液冷或将从“选修课”变成“必修课”。同时,需要宽禁带半导体来实现高压转换。 ■ ‘组力’:机柜即产品。价值量从通用组装厂向具备精密制造和液冷集成能力的头部厂商转移。 1. 周期向上,AI共舞 2.半导体:国产化深水区,“先进存储+先进制造”助力 3.AI:代际演绎,供应链变革 4. 端侧:模型变现,探寻端侧入口 AI算力需求驱动全球云厂商资本开支新周期。2023年以来,AI技术创新驱动算力需求激增、数字化转型加速与云计算基础设施广泛扩张,以及全球数据总量的快速增长,共同拉动数据中心基础设施建设需求,进而推动全球云服务提供商(CSP)的资本开支进入高增长周期。根据TrendForce数据,2025年全球八大主要CSPs资本支出总额年增率达 $65\%$ ,预计2026年资本开支总额达6020亿美元,增速在 $40\%$ 左右的高位。 海外CSP头部厂商开启AI“军备竞赛”。为了应对AI数据中心与云端运算需求激增,以Google、Meta、AWS、Microsoft为代表的海外CSP厂商预计将继续加大资金投入。根据Trendforce在11月公布的数据,Google已上调2025年资本支出至910-930亿美元;Meta上修2025年资本支出至700-720亿美元,并计划2026年还将保持高增长,其中Meta超级智能实验室团队算力需求增长最强烈;Amazon则预计2025年资本支出约1250亿美元,主要用于AWS云基础设施重点升级、AI数据中心扩容与算力网络优化等。Microsoft预计在2025年投资800亿美元建设AI智算中心,全球运营超400个数据中心,以为其AI业务扩张奠定基础,预期2026年的资本支出将继续增长。 2021-2026全球八大CSP厂商资本开支总额 Google、Meta、AWS、Microsoft资本开支(亿美元) 海内外算力建设同频共振。从国内来看,阿里、腾讯、字节等CSP厂商的资本开支与海外保持相似的增长趋势。阿里巴巴2025年前三季度资本开支为948亿元,同比增长 $132.68\%$ ,主要用于云业务、运营移动平台、数据中心建设等。根据公司公告,阿里计划未来三年投入3800亿元用于AI和云计算基础设施,预计2032年,阿里云全球数据中心的能耗规模将提升10倍。此外,腾讯2025年前三季度资本开支为595.66亿元,同比增长 $48.24\%$ ,预计全年资本开支达到千亿元,主要用于IT基础设施、数据中心等投入;字节2024年AI相关投入约为800亿元,预计2025年预算达1500亿元,同样为国内第一梯队。 国产AI算力芯片设计公司货单情况良好。2023年以来,以海光信息、寒武纪为代表的国内AI算力芯片厂商,同样获益于AI应用需求的增长。2025年前三季度,海光、寒武纪营收分别达94.90亿元、46.07亿元,同比增长约 $55\%$ 、 $2386\%$ ;其库存余额分别65.02亿元、37.29亿元,库存高企主要系因市场需求变化而进行的提前备货,反映了下游订单的良好预期。 阿里、腾讯资本开支(亿元) 海光、寒武纪收入、库存(亿元) 资料来源:阿里巴巴公告,腾讯公告,Wind,华源证券研究所 数据中心建设规模持续扩大,AI算力芯片需求或保持高涨。英伟达在算力芯片领域占据较大的市场份额,根据Techinsights和WellsFargo数据,2023年英伟达GPU芯片出货量达380万片,在全球数据中心GPU出货金额的份额达 $98\%$ ,并在2024年维持了 $94\%$ 市场占有率。展望2026年,在GTC2025大会上,黄仁勋表示英伟达BlackwellGPU需求依旧强劲,预计其BlackwellGPU和2026年推出的Rubin芯片,将在2025年四季度至2026年底带来至少5000亿美元的销售额。此外,黄仁勋预计到2028年全球数据中心相关的资本开支将达1万亿美元,表明未来算力芯片的需求仍有望持续增长。 海内外CSP大厂资本开支相差较大,国内厂商算力建设投入仍有广阔增长空间。对比中美两国经济体量,根据wind数据,2024年中国GDP约为18.48万亿美元(现价),为美国GDP的63%左右,而从CSP厂商资本开支情况来看,综合Trendforce、Houlihan Lokey等机构和各大厂商财报的数据,我们预计国内外CSP厂商的资本开支差距为5倍左右,以我国的经济规模来看,国内厂商资本开支仍有较大的增长空间。 全球数据中心加速芯片年出货量(百万颗) 数据中心GPU市场份额(按收入) 资料来源:Techinsights,WellsFargo,华源证券研究所 ■先进制造:台积电主导市场,中国大陆厂商奋力追赶。AI应用所带动高阶运算芯片需求持续强劲,对先进制程产能的需求同步增长,根据Counterpoint数据,预计2025年7nm以下的先进节点在全球纯晶圆代工营收的占比将超过 $50\%$ ;台积电在先进制程领域长期保持领先地位,25Q2全球晶圆代工市场中,其以 $71\%$ 的市场份额位居第一。从中国大陆先进制程的发展来看,国产替代迫在眉睫,目前中芯国际、华虹均在积极布局相关技术、扩大产能建设,预计2025年中芯国际资本开支在75亿美元左右,华虹资本开支在21美元以上。 ■先进封测:受云端AI加速器需求推动,2025年全球对CoWoS等2.5D先进封装产能的需求快速增长。全球来看,台积电、日月光、矽品等为主要供应商,根据Counterpoint,台积电CoWoS产能在2025年底预计达7.5万片/月,同比增长87.5%,2026年底预计达10万片/月,客户主要为英伟达、谷歌等海外CSP厂商。目前,国内厂商正在先进封装领域加速追赶,根据灼识咨询,2024年盛合晶微2.5D先进封装营收在国内份额达85%,全球份额达8%,同时,盛合晶微招股说明书披露,25H1其芯粒多芯片集成封装业务营收占比为56.24%,毛利率达30.63%。此外,根据公司公告披露,通富微电已在AMD槟城厂布局先进封装业务,建设Bumping、EFB等生产线;长电科技推出XDF01工艺,突破了2.5D、3D集成技术,已进入量产阶段。 全球纯晶圆代工市场份额 台积电CoWoS产能(千片/月) 资料来源:Counterpoint,IT之家,华源证券研究所 ■ AI先进算力需求+晶圆制造地区化推动产能高增:根据SEMI预计,半导体产能2025年年增长率将来到6.6%,达每月3,360万片晶圆,其核心受惠于由高效能运算(HPC)应用中的前端逻辑技术以及边缘设备中生成式AI渗透度的持续高涨。 - 为赶上大语言模型不断增长的运算需求,全球晶圆厂积极扩大先进制程产能( $\leqslant 7$ 纳米),年增长率将有望达到 $16\%$ ,至2025年每月产能将增加30万片,达220万片。 - 主流制程(8纳米至45纳米)则受到大陆芯片自给自足策略以及汽车和物联网应用预期需求带动,可望再增6%产能,2025年达到突破每月1,500万片晶圆的里程碑。 需求旺盛或将驱动设备支出维持高位:根据SEMI预测2026-2028年,全球300mm晶圆厂设备支出预计将达到创纪录的3780亿美元,其中Logic和Micro总投资将达到1750亿美元,主要依托先进节点工艺及技术和成熟制程产品驱动;受益于数据中心及端侧需求,存储行业设备支出预计将达到1360亿美元以上。 全球300mm 晶圆厂设备支出预计(2024-2028,十亿美元) 全球26-28年300mm 晶圆厂设备支出拆分预测(亿美元) <table><tr><td>公司</td><td>地点</td><td>技术节点/类型</td><td>规划详情</td></tr><tr><td rowspan="8">台积电</td><td>中国台湾新竹科学园区(宝山)</td><td>2纳米</td><td>2座晶圆厂 (Fab 20)</td></tr><tr><td>中国台湾高雄楠梓园区</td><td>2纳米</td><td>5座晶圆厂 (Fab 22)</td></tr><tr><td>中国台湾嘉义科学园区</td><td>CoWoS 先进封装</td><td>已建2座厂,预计2025-2026年量产;并有后续扩厂计划</td></tr><tr><td>中国台湾台中</td><td>先进制程(如A14)</td><td>正在拓展产能</td></tr><tr><td rowspan="2">美国亚利桑那州</td><td>4nm / 3nm / 2nm</td><td>包含3座晶圆厂,总投资1650亿美元。第一厂(4nm)2025上半年量产;第二厂(3nm)推迟至2028年量产;第三厂(2nm)2025年4月动工,计划2030年前量产</td></tr><tr><td>CoWoS & SoIC</td><td>2025年Q3启动建设,2028年投产。初期月产1万片,目标2030年达5万片</td></tr><tr><td>日本熊本</td><td>22/28nm和6nm</td><td>Phase 1 (22/28nm) 2024年底已运营;Phase 2 (6nm) 延至2029年投产。满产后月产能10万片,服务车载与工业</td></tr><tr><td>德国德累斯顿</td><td>12-28nm</td><td>2024年8月动土,预计2027年量产。月产4万片</td></tr><tr><td rowspan="2">英特尔</td><td>美国俄亥俄州</td><td>规划8座晶圆厂</td><td>初始投资200亿美元,总计划或将达到1000亿美元</td></tr><tr><td>爱尔兰 (Fab 34)</td><td>Intel 4 (EUV)</td><td>已具备量产能力。2019年开建,2023年完成认证。投资170亿欧元,使用首台EUV光刻机,生产PC芯片</td></tr><tr><td rowspan="2">UMC</td><td>新加坡 (Fab 12i P3)</td><td>22nm / 28nm</td><td>2025年4月已启用,目前处于设备安装调试阶段,计划2026年量产。一期投资50亿美元,满产产能3万片/月</td></tr><tr><td>美国亚利桑那州(与英特尔合作)</td><td>12nm FinFET</td><td>利用英特尔现有的 Fab 12/22/32 厂房进行生产,预计2027年量产。无需自建新厂,双方联合开发工艺</td></tr><tr><td rowspan="3">三星</td><td>韩国平泽(P5工厂)</td><td>存储器+晶圆代工</td><td>拥有5条生产线,兼具存储和代工功能。预计2028年投产,目前建设加速,旨在满足全球AI服务器对高速存储芯片的需求</td></tr><tr><td>美国得克萨斯州泰勒市</td><td>2nm (AI/HPG芯片)</td><td>总投资约370-400亿美元。因市场波动推迟至2026年底或2027年初第一阶段量产。目前ASML团队正在安装调试EUV设备,月产能约1.6-1.7万片</td></tr><tr><td>韩国平泽(P4工厂四期PH4)</td><td>1c DRAM (10nm级) & HBM4</td><td>加速建设中。计划2025年11月启动主体工程施工,预计2026年实现量产。核心目标是量产第六代10nm级DRAM和下一代HBM4内存</td></tr><tr><td>美光</td><td>美国纽约州克莱</td><td>DRAM</td><td>工期全面延后。规划4座厂,总投2000亿美元。获美芯片法案61.65亿美元补贴。Fab 1: 动工推迟至2026年Q2,预计2030年Q3完工,Fab 2: 动工推迟至2030年Q4,预计2033年Q4完工,Fab 3: 动工推迟至2035年Q3</td></tr><tr><td rowspan="3">海力士</td><td>韩国清州(M15X工厂)</td><td>HBM & 新一代DRAM</td><td>2030年预计建成月产能70万DRAM体系</td></tr><tr><td>韩国龙仁(半导体集群)</td><td>HBM & 先进DRAM</td><td>首座厂约120万亿韩元,总规划600万亿韩元。首座晶圆厂: 2025年2月开建,预计2027年5月竣工,月产能20万片。后续规划: 共建4座厂,目标2050年前形成月产70万片的庞大体系</td></tr><tr><td>美国印第安纳州</td><td>先进封装 & AI内存研发</td><td>38.7亿美元,预计2028年下半年量产。2025年5月获用地许可,下半年开始基建。主要服务美国AI客户的封装需求</td></tr></table> 资料来源:半导体俱乐部,半导体新视界等微信公众号,华源证券研究所 ■2025年洁净间厂商收入迎来拐点,收入增速凸显芯片资本开支高景气:根据中国台湾主要洁净间厂商财报,25年各厂商营收进入上行周期,下游资本开支增量清晰,需求显著放量。汉唐2025年营收自一季度115亿新台币增至三季度192亿新台币,年内增速达 $67\%$ ;亚翔工程营收快速放量,2025年Q3营收达245亿新台币,年内增速达 $103\%$ 。受益于25年美国本土晶圆厂建设加速,洁净室需求集中释放。东南亚及美国半导体板块高景气度有望赋能洁净室需求高增。根据亚翔工程财报,2025年1-5月公司新签订单达957.63亿新台币,在手订单饱满,反映未来CAPEX高涨景气度。 2015-2025年台企洁净间厂商营收规模(百万新台币) 2021-2025年5月亚翔工程新签订单(新台币亿元) 资料来源:Wind,亚翔工程公告,华源证券研究所 AI浪潮驱动制造设备总销售额高增长:根据SEMI预测,2025年全球半导体制造设备总销售额预计增长至1255亿美元,同比增长7.4%。先进逻辑、存储器以及技术迁移驱动的增长动能有望推动2026年设备销售额攀升至1381亿美元,实现连续三年增长。晶圆制造设备WFE部门预计2025年将增长6.2%,达到1108亿美元,由于未来先进逻辑和存储器产能或将扩张,叠加各主要细分市场的工艺技术迁移,WFE部门的销售额预计在2026年将增长10.2%,达到1221亿美元。 AI+成熟制程驱动代工及逻辑业务增长,AI部署+HBM或将驱动内存资本支出高增:根据SEMI预测,2025年用于代工和逻辑应用的WFE销售额将同比增长6.7%,达到648亿美元,未来受产能扩张采购增加以及行业向2nm环绕式栅极节点突破,2026年有望进一步增至690亿美元;受益于HBM投资需求扩张,2024年DRAM设备销售额强劲增长40.2%至195亿美元,增长趋势有望持续至26年,NAND设备销售额持续复苏,预计在25年实现42.5%的增长,达137亿美元。 2023-2026年全球设备销售收入按种类拆分(十亿美元) 2023-2026年全球设备销售收入按产品拆分(十亿美元) 资料来源:Semi,华源证券研究所 25年中国大陆设备出货金额持续高增:根据SEMI数据,受益于对先进技术的加码投资、支持人工智能计算的先进逻辑、DRAM和封装解决方案的需求扩张,2025年前三季度全球半导体设备出货金额已接近1000亿美元,2025年Q3全球设备出货额达到336.6亿美元,同比增长 $11\%$ 。2025Q3中国大陆地区出货金额达到145.6亿美金,相较于2024Q3的129.3亿美金实现了 $13\%$ 的增长。 中国大陆地区设备采购额持续高增,2025年三季度全球占比达 $43.3\%$ :中国大陆地区设备采购额持续高速增长,这体现了大陆地区在成熟逻辑及存储板块的持续发力。2023年中国大陆设备出货额已经达366亿美元,全球占比为 $34.4\%$ 。根据SEMI最新数据,2025Q3中国大陆设备出货额同比增长 $13\%$ 至145.6亿美元,全球占比拔高至 $43.3\%$ 。中国大陆市场连续10季度成为全球最大半导体设备市场,单季度市场占比在近四个季度首次突破 $40\%$ 。 2024Q3~2025Q3 全球半导体出货金额分地区数据(十亿美元) 2018-2025年Q3中国大陆半导体设备出货金额(亿美元) 资料来源:Semi,华源证券研究所 ■大陆设备制造商营收高速增长:在下游需求高速增长的驱动下,叠加海外设备制裁带来的特殊契机,中国大陆设备厂商营收快速增长。2018年,统计的国内头部8家半导体设备厂商营收仅为65.3亿元,到2024年合计营收可达587.7亿元,6年增长 $799\%$ ,CAGR达到 $44\%$ ,实现跨越式发展。截至2025年Q3,国内头部半导体设备厂商营收突破至524.8亿元,逼近2024年全年营收总和,营收表现强劲。 国内需求旺盛,大陆晶圆制造设备国产化空间依然较大:结合SEMI和大陆设备制造商营收数据,我们发现1)大陆头部设备厂商出货量占比持续提升,其市场份额已从18年的7.1%增至25年Q1-3的21%,25年前三季度大陆设备厂商出货量显著增长,增长速度尤为突出;2)2025年前三季度大陆头部设备厂商出货量仅占据大陆下游需求(出货金额)的21%,仍有约79%的市场被海外友商占据,从绝对值看国产化缺口仍然达到2007亿元以上,为25Q1-3头部设备厂商合计营收的3.83倍,大陆晶圆制造设备的国产化空间依然较大。 2018-2025Q1-3大陆半导体设备厂商营收(亿元) 2018-2025Q1-3中国大陆半导体设备出货金额与大陆头部设备厂商出货金额对比(亿元) 资料来源:iFinD数据库、Semi,华源证券研究所 注:部分设备厂商有非半导体设备业务,在此不做更进一步拆分,图中为整体营收,头部厂商选取为左图列举公司 长鑫存储成立于2016年,是国内稀缺的DRAM IDM厂商,公司此前主要产品是19nm工艺的DDR4/LPDDR4/LPDDR4X芯片。2025年10月,长鑫存储宣布已量产LPDDR5X,产品阵容包括颗粒、芯片及模组等形态,包括12/16Gb的LPDDR5颗粒,12/16/24GB LPDDR5芯片。产品的速率覆盖8533Mbps、9600Mbps、10667Mbps,同时兼容LPDDR5。目前8533Mbps和9600Mbps速率产品已于2025年5月量产,10667Mbps速率的产品已经启动客户送样。 ■2025年11月,长鑫在ICChina上首次全面展示DDR5和LPDDR5X最新产品,根据官方介绍,长鑫存储最新的DDR5产品最高速率可达8000Mbps,颗粒容量覆盖16Gb/24Gb,产品功耗较DDR4降低 $20\%$ 。此外公司的LPDDR5X在容量、速率、功耗上都有显著提升,目前提供12Gb和16Gb两种单颗粒容量,最高速率达到10667Mbps,已达到国际主流水平;LPDDR5X产品组合提供多种封装解决方案,容量包括12GB、16GB和24GB。 LPDDR5和DDR5是目前主流市场中最核心和最领先的产品,之前一直被三星、美光、海力士把控,长鑫目前完成突破,有望实现主流市场中所有产品品类的覆盖。根据tom’s HARDWARE,三星和海力士证实OpenAI的Stargate数据中心预计放量每月90万片产能,预计占DRAM总量的40%。我们按此进行反向测算,预估2025年全球主流市场DRAM的晶圆投放量可达225万片以上。目前长鑫的产能升至28万片,约占全球先进制程晶圆的12.4%,根据弗若斯特沙利文预测2025年中国DRAM市场规模约占全球的34%,市场份额提升的空间广阔。 长鑫LPDDR5芯片颗粒 长鑫DDR5芯片颗粒 全球DRAM厂营收排名(2025Q3) 2025年第三季DRAM品牌厂商营收排名 <table><tr><td rowspan="2">Ranking</td><td rowspan="2">Company</td><td colspan="3">Revenue (US$M)</td><td colspan="2">Market Share</td></tr><tr><td>3Q25</td><td>2Q25</td><td>QoQ</td><td>3Q25</td><td>2Q25</td></tr><tr><td>1</td><td>SK hynix</td><td>13,750</td><td>12,229</td><td>12.4%</td><td>33.2%</td><td>38.7%</td></tr><tr><td>2</td><td>Samsung</td><td>13,500</td><td>10,350</td><td>30.4%</td><td>32.6%</td><td>32.7%</td></tr><tr><td>3</td><td>Micron</td><td>10,650</td><td>6,950</td><td>53.2%</td><td>25.7%</td><td>22.0%</td></tr><tr><td>4</td><td>Nanya</td><td>627</td><td>341</td><td>84.0%</td><td>1.5%</td><td>1.1%</td></tr><tr><td>5</td><td>Winbond</td><td>222</td><td>183</td><td>21.4%</td><td>0.5%</td><td>0.6%</td></tr><tr><td>6</td><td>PSMC</td><td>33</td><td>20</td><td>62.8%</td><td>0.1%</td><td>0.1%</td></tr><tr><td></td><td>Others</td><td>2,617</td><td>1,561</td><td>67.6%</td><td>6.3%</td><td>4.9%</td></tr><tr><td colspan="2">Total</td><td>41,399</td><td>31,634</td><td>30.9%</td><td>100.0%</td><td>100.0%</td></tr></table> 备注1:公司营收含委外代工,代工厂则不包含代工销售额 备注2:2Q25--1美元兑换1,400韩元;1美元兑换30.9台币 备注3:3Q25--1美元兑换1,387韩元;1美元兑换29.9台币 Source:TrendForce,Nov.2025 ■新技术+工艺突破,成功追赶全球先进3DNAND:长江存储成立于2016年,同年进军3DNAND领域,借助其自研的Xtacking混合键合技术和工艺设计,公司跳过176层,仅用了7年时间就实现了232层3DNAND的研发和量产,而其全球竞争对手如东芝从2007年设计出第一代原型3DNAND以来,到制造2XX层3DNAND花了超过15年的时间。 性能比肩友商,产品具有全球竞争力:根据techinsights的拆解,长江存储利用其卓越的Xtacking技术实现了在同层数下Bit Density的显著增长(128L 8.47 Gb/mm²,高于三星的6.96 Gb/mm²和海力士的8.13 Gb/mm²);而从最高阶技术代来看,长江存储是2022年唯一量产232层的企业,其Bit Density提升达15.03 Gb/mm²,目前其第五代3D TLC NAND产品Bit Density超过20Gb/mm²。 长江存储3D NAND产品实现了跨越式发展 长江存储3D NAND产品与海外头部厂商对比(2022年) 资料来源:Techinsights,华源证券研究所 国产卡性能稳步提升,性价比优势凸显:根据《国产AI芯片产业白皮书》,国产AI芯片在存储能力上性能稳步提升,在显存方面,国内企业结合自身特点分别选择HBM2e、GDDR等显存类型,显存容量覆盖32-96Gb。单卡互连方面国内大部分企业仍处在200-400Gb/s,亟待突破。此外沐曦股份具备国内领先高带宽、超多卡互连能力,其自主研发的MetaXLink高速互连技术支持GPU全互连,互连带宽性能与英伟达H200相当,体现国内领先互连技术水平。功耗层面部分国产芯片实现赶超,或已优于英伟达旗下芯片。国内企业目前在单卡性能上取得一定突破,性能持续与国际领先水平接轨。 智算集群发展迎来黄金发展期,国内需求呼唤技术突破:根据沐曦股份招股说明书,目前国内企业千卡集群线性度和稳定性与国外存在一定差距,国外企业整体性能较优。根据《国产AI芯片产业白皮书》,国内摩尔线程、华为、沐曦等公司代表产品已落地万卡级规模集群,未来伴随着国产算力芯片性能提升,国产芯片市场需求有望迎来放量。 国产AI加速卡与英伟达加速卡对比(单卡) <table><tr><td>领域</td><td colspan="2">英伟达</td><td>平头哥</td><td>壁仞科技</td><td>摩尔线程</td><td>沐曦股份</td></tr><tr><td>型号</td><td>A800</td><td>H20</td><td>PPU</td><td>104P</td><td>MTT S4000</td><td>曦云 C500</td></tr><tr><td>显存容量</td><td>80G</td><td>96G</td><td>96G</td><td>32G</td><td>48G</td><td>64G</td></tr><tr><td>显存类型</td><td>HBM2e</td><td>HBM3</td><td>HBM2e</td><td>HBM2e</td><td>GDDR6</td><td>HBM2e</td></tr><tr><td>片间带宽(Gb/s)</td><td>400</td><td>900</td><td>700</td><td>256</td><td>240</td><td>384</td></tr><tr><td>PCIe</td><td>4.0*16</td><td>5.0*16</td><td>5.0*16</td><td>5.0*16</td><td>5.0*16</td><td>5.0*16 (MetaXlink)</td></tr><tr><td>功耗(W)</td><td>400</td><td>550</td><td>400</td><td>300</td><td>450</td><td>350</td></tr></table> 国产AI芯片智算集群能力比较(部分) <table><tr><td>公司</td><td>代表产品/集群</td><td>集群规模</td><td>GPU/加速卡数目</td><td>核心特点与现状</td></tr><tr><td>华为</td><td>昇腾AI云服务</td><td>最高可扩展至16万卡</td><td>每个超节点384颗昇腾NPU</td><td>基于CloudMatrix384超节点,通过432个超节点级联成最高16万卡的超大集群。万卡集群的训练可用度达到98%,线性度超过95%。</td></tr><tr><td>摩尔线程</td><td>KUAE(夸娥)集群</td><td>万卡级</td><td>10240张</td><td>已落地。全栈自研,支持LLM训练,兼容CUDA。2025年上半年AI智算业务收入预计实现增长,正在洽谈大型集群项目。</td></tr><tr><td>壁仞科技</td><td>中国移动智算中心(呼和浩特)</td><td>万卡级</td><td>多元国产架构共同提供支持</td><td>BR100系列卡间互连性能领先。发布了基于光互连(0CS)技术的超节点解决方案。</td></tr><tr><td>沐曦股份</td><td>曦源一号SADA</td><td>万卡级</td><td>10000张</td><td>支持可靠稳定的大模型训练及推理,具备良好的线性度,确保训练的效率和扩展性。</td></tr></table> ■大陆市场空间高增,先进逻辑自主可控需求愈演愈烈:伴随国内AI下游应用市场扩张,AI计算加速芯片市场需求跨越式增长,未来市场规模或将实现快速增长。根据弗若斯特沙利文预测,中国AI芯片市场规模有望从2024年的1425亿元迅速增至2029年的13368亿元,2025-2029年CAGR达 $53.7\%$ ,未来AI芯片市场或将迎来高速发展周期。细分市场来看,GPU市场份额预计从24年的69. $9\%$ 增长至2029年的77. $3\%$ ,系AI芯片需求主要增量。根据IDC数据,2024年中国本土AI芯片品牌渗透率约 $30\%$ ,出货量达82万张,较23年同期的 $15\%$ 渗透率显著提升。 国产算力需求旺盛,未来大陆高端逻辑扩产需求确定性较高:AI应用的深入带来下游市场对算力基础设施要求增加,中国AI智算GPU市场规模自2020年142.86亿元增长至2024年的996.72亿元,CAGR高达 $62.5\%$ 。根据弗若斯特沙利文预测,2029年AI智算GPU市场规模有望达10333.4亿元,2025-2029年期间CAGR达 $56.7\%$ 。根据Bernstein Research数据,英伟达和AMD在2024年中国AI芯片市场中占据 $71\%$ 的市场份额,AI芯片国产化程度较低。国内算力需求的显著增长奠定中国大陆高端逻辑扩产的需求基础,催化国产替代加速进程,未来国产GPU渗透率有望提升。 2020-2029年中国AI计算加速芯片市场规模(亿元) 2020-2029年中国GPU市场规模(亿元) 资料来源:摩尔线程招股说明书,弗若斯特沙利文,华源证券研究所 <table><tr><td>领域</td><td>公司</td><td>核心业务</td></tr><tr><td rowspan="6">前道设备</td><td>北方华创</td><td>国内领先的刻蚀、沉积核心工艺设备供应商,半导体设备平台型企业</td></tr><tr><td>中微公司</td><td>国产刻蚀设备领军者,薄膜设备蓄势待发</td></tr><tr><td>拓荆科技</td><td>国内半导体薄膜沉积设备国产化核心供应商,薄膜沉积设备国产替代领军企业</td></tr><tr><td>中科飞测</td><td>国产高端半导体质量控制设备领军企业,全品类布局检测设备核心供应商</td></tr><tr><td>京仪装备</td><td>半导体专用工艺辅助设备领军企业</td></tr><tr><td>微导纳米</td><td>全球领先的ALD薄膜沉积设备供应商</td></tr><tr><td rowspan="3">后道设备</td><td>华峰测控</td><td>测试设备国产替代领军者</td></tr><tr><td>精智达</td><td>国内半导体测试设备与新型显示检测设备双领域核心供应商</td></tr><tr><td>长川科技</td><td>国内领先半导体测试设备企业</td></tr><tr><td rowspan="2">洁净室</td><td>亚翔集成</td><td>A股半导体洁净室工程企业</td></tr><tr><td>圣晖集成</td><td>国内领先的洁净室工程服务商</td></tr><tr><td rowspan="2">零部件</td><td>珂玛科技</td><td>半导体陶瓷部件国产替代领军企业</td></tr><tr><td>长盈精密</td><td>全球领先的精密制造企业</td></tr><tr><td rowspan="2">EDA</td><td>华大九天</td><td>国产半导体EDA领域企业</td></tr><tr><td>广立微</td><td>国内领先的集成电路EDA软件与晶圆级电性测试设备供应商</td></tr></table> 资料来源:iFind,华源证券研究所 1. 周期向上,AI共舞 2. 半导体:国产化深水区,“先进存储+先进制造”助力 3.AI:代际演绎,供应链变革 4. 端侧:模型变现,探寻端侧入口 ■存储市场进入快速成长周期,HBM成为行业增长主引擎:根据Yole数据,未来受益于AI驱动的增量需求,数据中心等下游市场有望带动存储产品需求上涨,存储市场未来成长动能强劲。2024年全球存储市场规模达1700亿美元,受益于AI训练与推理对带宽需求强烈,HBM市场规模同比2024年增长 $78\%$ 。存储市场在2030年或将突破3000亿美元规模,HBM或将迎来显著增幅周期,从2024年的174亿美元增至2030年的980亿美元,DRAM进而有望迎来结构性增长。AI和数据中心(单台AI服务器需8-16颗HBM)具备增长驱动力,AI服务器占数据中心出货量比例有望显著提升(或将由24年 $15\%$ 升至30年 $40\%$ ),单台AI服务器内存容量为通用服务器的5-10倍。 AI推理增加冷数据和温数据需求,NAND需求或将迎来显著增量:AI推理明确分层存储需求:热数据可存储于HBM或DRAM中,可用于实时推理;温数据一般存储于NAND(SSD存储)中,以充分发挥其高速读写性能;HDD凭借每单位储存容量(GB)的极低成本优势,稳居冷数据主流储存方案。随着AI推理带来的庞大数据量打开存储需求缺口,冷数据重新活化向温数据转变,温数据需求量攀升或将成为未来SSD增量核心。根据TrendForce数据,2026年大容量eSSD出货或将显著放量,NAND需求受益推理侧有望迎来较大成长空间。 三类存储在AI服务器的作用 <table><tr><td>名称</td><td>作用</td></tr><tr><td>HBM</td><td>提升数据处理速度,支持大规模模型训练,降低功耗与成本</td></tr><tr><td>DRAM</td><td>临时数据存储与缓存,提升系统性能与吞吐量,支持高带宽数据传输</td></tr><tr><td>NAND</td><td>数据存储与备份,加速数据访问</td></tr></table> 存储金字塔架构示意图 数据层级结构示意图 ■全球DRAM市场规模持续快速扩张:根据TrendForce数据,2024年7月其预测2025年全球DRAM产业营收规模将继续维持高增长,预计增速达 $51\%$ ,而2025年前三季度全球DRAM产业营收已超过1000亿美元,三季度环比增速达 $30.9\%$ ,2025年全球DRAM产业营收我们预计有望超出此前预期,HBM崛起、一般型DRAM产品迭代演进、原厂资本支出限缩供给和服务器需求复苏等或将成为支撑行业规模扩张的主要驱动力。 DRAM或将延续涨价趋势:2025年第四季度,Server DRAM合约价受益于全球云端供应商(CSP)扩充数据中心规模,涨势转强,并带动整体DRAM价格上扬,尽管25Q4的DRAM合约价尚未完整开出,供应商此前收到CSP加单需求后,调升报价的意愿已明显提高。根据TrendForce数据,25Q4一般型DRAM价格涨幅预估在18-23%,较此前预测上调10个百分点,并有可能继续上修。此外,若计入HBM,整体DRAM涨幅预计进一步扩大为23%-28%。 全球DRAM产业营收规模及增速 2025年四季度 DRAM价格预测(含前次预测值) <table><tr><td></td><td>Total DRAM</td></tr><tr><td>Revised Version</td><td>Conventional DRAM: up 18~23% HBM Blended: up 23~28%</td></tr><tr><td>Original Version</td><td>Conventional DRAM: up 8~13% HBM Blended: up 13~18%</td></tr></table> AI服务器成为内存模组需求增长的核心驱动力:全球服务器出货量的增加正拉动内存模组基础需求,同时,单台服务器的内存配置容量也快速提升,根据弗若斯特沙利文的数据,预计2025-2030年全球服务器内存模组出货量的年复合增速将达10.8%,2030年出货量突破3亿根。原因在于,AI应用对内存容量要求极高,主流AI服务器所配置的内存模组数量通常是通用服务器的约2倍,且随着AI技术在各行业广泛应用、AI服务器渗透率不断提高,服务器内存模组的整体需求增速或将显著超越服务器出货量增速,从而为内存互连芯片市场开辟广阔的发展空间。 ■英伟达AI服务器转向LPDDR,或将加速DRAM供应紧缺:近期英伟达计划将其AI服务器的内存芯片从传统服务器使用的DDR5转向通常用于手机和平板电脑的LPDDR芯片,以实现更低的功耗,并将纠错逻辑转移到CPU侧,而非依赖DDR5 ECC,该转变预计对供应链产生较大冲击,短期内可能无法消化英伟达的大规模需求。在供应极度受限的情境下,Counterpoint预测2025年Q1至2026年底,DDR5 64GB RDIMM的DRAM模组的价格将上涨两倍。 全球服务器内存模组出货量 资料来源:澜起科技招股说明书(港股),弗若斯特沙利文,Counterpoint,华源证券研究所 DRAM 价格情况(DDR5 64GB RDIMM) ■ HBM技术代际向HBM4演进:JEDEC于2025年4月正式发布了JESD270-4高带宽内存(HBM4)标准,HBM4接口宽度从HBM3/HBM3E的1024位扩展至2048位,单个芯片堆栈的带宽可高达2TB/s;容量方面,支持4-16层的堆叠配置,其单个内存立方体容量最多可达64GB,是HBM3容量的两倍,这对满足大型语言模型日益增长的内存需求至关重要。 主流GPU芯片的HBM用量提升:英伟达A100芯片内存80GB,采用5颗HBM 2E,到最新发布的B300内存达到288GB,使用8颗HBM 3E,现存容量及HBM搭载数量均大幅增长。 头部原厂均密集开发先进HBM产品:2024年海力士、三星和美光均陆续开发出基于1α或1βnm制程的24Gb容量的HBM 3E颗粒,堆叠容量进一步上升至36GB。2025年3月,SK海力士出货了世界上首批12层HBM 4样品,根据TrendForce最新预测,预计三大原厂HBM 4量产的时间点最快将落于2026年一季度末至二季度之间。 全球三大原厂HBM解决方案的发展路线图 Source: TrendForce, Aug., 2023 英伟达GPU芯片与配套HBM <table><tr><td>GPU型号</td><td>HBM类型</td><td>显存容量</td><td>搭载HBM数量</td><td>显存带宽</td><td>架构</td></tr><tr><td>A200</td><td rowspan="2">HBM 2E</td><td>80GB</td><td>/</td><td>2TB/s</td><td rowspan="2">Ampere</td></tr><tr><td>A100</td><td>80GB</td><td>5颗</td><td>2TB/s</td></tr><tr><td>H200</td><td>HBM 3E</td><td>141GB</td><td>6颗</td><td>4.8TB/s</td><td rowspan="2">Hopper</td></tr><tr><td>H100</td><td>HBM 3</td><td>80GB</td><td>5颗</td><td>3.35TB/s</td></tr><tr><td>B300</td><td></td><td>288GB</td><td>8颗</td><td></td><td></td></tr><tr><td>B200</td><td>HBM 3E</td><td>192GB</td><td>8颗</td><td>8TB/s</td><td>Blackwell</td></tr><tr><td>B100</td><td></td><td>192GB</td><td>8颗</td><td></td><td></td></tr></table> HBM技术代际性能对比 <table><tr><td>类型</td><td>数据传输速率(Gb/s)</td><td>通道位宽(bit)</td><td>最大带宽(GB/s)</td><td>可堆叠层数</td><td>每堆容量(GB)</td></tr><tr><td>HBM 1</td><td>1.0</td><td>1024</td><td>128</td><td>4</td><td>1</td></tr><tr><td>HBM 2</td><td>2.0</td><td>1024</td><td>256</td><td>8</td><td>8</td></tr><tr><td>HBM 2E</td><td>3.2~3.6</td><td>1024</td><td>410~460</td><td>4~8</td><td>16</td></tr><tr><td>HBM 3</td><td>6.4</td><td>1024</td><td>819</td><td>8~12</td><td>24</td></tr><tr><td>HBM 3E</td><td>9.2</td><td>1024</td><td>1177</td><td>8~12</td><td>36</td></tr><tr><td>HBM 4</td><td>6.4</td><td>2048</td><td>1536</td><td>16</td><td>64</td></tr></table> ■ HBM在DRAM中的产值比重快速拉升:依托AI服务器及AI计算芯片需求的高速增长,HBM作为不可或缺的关键组件,其需求量快速增长,2022年HBM在800亿美元DRAM产业中产值占比仅为 $2.6\%$ ,到2023年,随着AI GPU需求放量,HBM营收占比拔高至 $8.4\%$ ,约合43.6亿美元。根据TrendForce数据,预估2024年全球HBM营收占比将达到841亿美元DRAM产业的 $20 - 21\%$ ,绝对值达170亿美元左右,较2023年增长超过 $280\%$ ,较2022年增长约7倍。到2025年,AI浪潮延续下HBM需求不减,HBM产值占比预计继续上扬超过 $30\%$ 。 海外大厂持续扩充HBM产能:2025年三大原厂HBM扩产显著提速,根据TrendForce数据,预估三星HBM总产能至2025年底将达约170千片每月(含TSV),SK海力士约150千片每月,美光约45千片每月,较2024年底产能增长分别约为 $42\%$ 、 $25\%$ 、 $80\%$ ,三大原厂规划生产HBM产能合计或达365千片每月,占其DRAM总产能的 $23\%$ 。 2022-2024年HBM占DRAM产值比重(百万美元) <table><tr><td></td><td>2022</td><td>2023</td><td>2024(E)</td></tr><tr><td>HBM营收占比</td><td>2.6%</td><td>8.4%</td><td>20.1%</td></tr><tr><td>DRAM产业营收</td><td>80,087</td><td>51,863</td><td>84,150</td></tr></table> 2023-2025年HBM占DRAM总位元产出及产值比重预估 <table><tr><td>HBM</td><td>2023</td><td>2024(E)</td><td>2025(F)</td></tr><tr><td>HBM占比/DRAM总位元产出</td><td>2%</td><td>5%</td><td>over 10%</td></tr><tr><td>HBM占比/DRAM总产值</td><td>8%</td><td>21%</td><td>over 30%</td></tr></table> 2024-2025年三大原厂DRAM及HBM产能(千片/月)(截至2024年9月) AI手机进展加速,从特定任务转向通用化场景支持:2025年12月1日字节跳动与中兴通讯合作推出豆包AI手机-努比亚M153,为技术预览版的工程样机,定价为3499元。从AI功能上看,用户可以通过语音、AI侧键、耳机等多种方式唤醒豆包并发出指令,根据官网视频演示:交互方面,豆包手机可在系统层面实现语音通话、视频通话和屏幕共享等功能,如针对网页图片可直接语音询问AI图片出处获取相关信息;多模态生成方面,豆包手机将手机相册与多模态生产模型在系统层结合;手机操作方面,用户可通过语音指令让AI自动操作手机完成全网比价、咖啡店收藏等动作。 ■ AI终端产品的兴起或推动设备存储容量需求提升:以AI手机为例,相较传统手机,其对内存容量需求更大,豆包手机预览版的内存配置即达16GB+512GB,而华为、苹果、荣耀等厂商的基础款配置一般为12GB+256GB。此外,根据IT之家,苹果首次推出Apple Intelligence功能时,要求存储空间为4GB,更新后Apple Intelligence的存储空间要求提升到7GB。预计随着AI功能在终端的持续落地和拓展,对手机的数据存储和处理要求将更高,存储容量需求或持续递增。 豆包手机可通过语音命令AI实现手机的自动操作 豆包手机和传统手机内存参数对比 <table><tr><td>手机型号</td><td>起售价(元)</td><td>RAM(GB)</td><td>ROM(GB)</td><td>处理器</td><td>电池容量</td></tr><tr><td>努比亚M153</td><td>3499</td><td>16</td><td>512</td><td>骁龙®8至尊版</td><td>6000mAh</td></tr><tr><td>华为mate 70</td><td>5499</td><td>12</td><td>256</td><td>/</td><td>5300mAh</td></tr><tr><td>荣耀Magic 8</td><td>4499</td><td>12</td><td>256</td><td>骁龙®8至尊版</td><td>7000mAh</td></tr><tr><td>小米Xiaomi 17</td><td>4499</td><td>12</td><td>256</td><td>骁龙®8至尊版</td><td>7000mAh</td></tr><tr><td>苹果iPhone 17</td><td>5999</td><td>8</td><td>256</td><td>A19</td><td>/</td></tr></table> 海外大厂资本支出转攻为守,或由量逻辑转向价逻辑:DRAM和NAND Flash产业的投资重心正逐渐转变,从单纯地扩充产能,转向制程技术升级、高层数堆栈、混合键合以及HBM等高附加价值产品。根据TrendForce数据,DRAM产业的资本支出在2025年预计达到537亿美元,预计在2026年进一步成长至613亿美元,年增率达 $14\%$ ;NAND Flash部分,资本支出在2025年预计为211亿美元,2026年预计小幅增长至222亿美元,年增约 $5\%$ ,海外大厂资本开支增速相对前两年有所放缓。 头部厂商相继转产高阶技术代际:主要存储器供应商正积极投入1c DRAM的产能扩张。从资本开支计划看,美光科技2026年资本支出预计达135亿美元,年增 $23\%$ ,主要专注于1gamma制程(业内视为1c制程)渗透和TSV设备建置;SK海力士2026年资本开支预计为205亿美元,年增 $17\%$ ,其1cDRAM节点预计用于生产GDDR7,潜在客户包括长期合作伙伴特斯拉与英伟达;三星预计2026年投入200亿美元,年增 $11\%$ ,用于HBM的1C制程渗透及小幅增加P4L晶圆产能,其已在平泽第4园区(P4)启动首条1c DRAM制程技术产线,同时考虑将华城17号生产线从1z DRAM转为1c DRAM技术产线。 2022-2026年DRAM与NAND Flash产业资本支出 SK海力士计划将1c DRAM节点用于GDDR7生产 资料来源:TrendForce,半导体产业研究公众号等,华源证券研究所 DUV多重曝光及EUV的引入:目前DRAM仍然保持着6F²的Cell设计架构和工艺集成,随着制程节点持续迭代,多重曝光的使用变得更加频繁。预估从2X到1Z nm的技术迭代中,由于多重曝光的使用,工艺流程步数增长或超过50%,这或将显著提升产线的设备支出。目前美光仍在保持基于ArFi的DPT双重曝光和QPT四重曝光图形化技术进行1α和1β节点的量产,而三星和SK海力士引领着DRAM EUV技术。根据2020年IMEC论文引用的信息,单次EUV曝光的成本高于QPT方案,且分辨率较低。如果需要超过ArFi的QPT方案,需要使用EUV DPT,这将进一步增加产线的设备采购成本,预估EUV DPT技术的成本将会达到DUVSPT技术的6倍,DPT技术的4.0倍,QPT技术的2.0倍以上。 ■ HKMG技术:三星率先在D1x节点的GDDR6引入了外围HKMG的结构和工艺,并在D1y DDR5芯片中采用;美光和海力士分别在其1β和1b DDR5设备中引入HKMG技术。相比于传统的多晶硅外围栅极机构,HKMG技术引入了更多薄膜品类并需要更多刻蚀工艺配套,整体产品设备支出有望进一步提升。 DRAM的技术节点与逻辑的对比 # 工艺成本对比图 (DUV vs EUV, 单重曝光vs多重曝光) # HKMG工艺与传统晶体管对比 # HKMG工艺概述 传统晶体管 减薄SiON绝缘膜导致增加漏电流 HKMG晶体管 基于HKMG工艺的晶体管可防止漏电流并降低功耗 海量数据运算驱动DRAM架构变革:随着云计算、人工智能、大数据分析等领域对高速、大容量、低延迟内存的需求持续攀升,要求DRAM向更高密度、更低功耗、更大带宽升级。早期DRAM的单元结构是由4条位线和2条字线组成的8F²架构,80nm的DRAM则开始应用6F²架构,随着单元面积的减小,DRAM集成度和性能继续提高,下一代的4F²被认为是最高效的存储单元布局之一,但这要求单元(Cell)结构必须进行改变,如采用VCT结构将其垂直排列。根据东京电子预计,采用VCT和4F²架构设计的DRAM将于2027-2028年出现。 海外大厂布局4F²技术,或有效提高存储密度:三星、海力士已相继发布关于4F²技术的计划。三星在Memcon2024上的介绍,其4F²SquareVCT DRAM通过垂直堆叠技术,DRAM单元尺寸预计将比上一代6F²的DRAM减少约30%,三星计划在2025年内部发布4F²工艺,并逐步推进3D DRAM的研发,预计在2030年前面向市场。海力士在2025年IEEE VLSI研讨会公布其技术进展,计划将4F²VG平台和3D DRAM技术应用于10nm或以下级内存,并在结构、材料和组件方面进行创新。4F²VG将传统DRAM中的平面栅极结构调整为垂直方向,或将有助于实现高集成度、高速度和低功耗。 DRAM架构升级趋势 不同架构DRAM的Cell结构 目前热压键合(TCB)仍是HBM中使用的主流堆叠技术之一,可满足12hi的HBM4的要求。但TCB技术下I/O密度较难进一步提升,预估Micro Bumps的接口密度不超过1000 I/0/mm²,TSV互连的密度不超过10000 I/0/mm²,而每bit传输的能耗将超过0.5 pJ和0.1 pJ。预估到HBM5,HBM的键合有望全面转向混合键合方式。 混合键合(Hybrid Bonding)与传统凸点焊接不同,其没有凸点,不需要底填料,是通过铜对铜金属键合或二氧化硅对二氧化硅介层键合实现无凸点键合的高密度互连技术,被认为是应用于下一代HBM产品键合的理想解决方案,其核心优势有以下几点: 电气性能优于MicroBump,可在高频条件下降低信号损失; $\checkmark$ 互联密度可以高达1 million l/0/mm²,是TSV密度的100倍; ✓ 混合键合在同等层数的空间显著低于热压键合,从而在相同高度限制下显著提升层数(容量)。 性能优异,混合键合或将成为终极解决方案 封装系统互联技术路线图 各世代HBM堆叠高度及供应商堆叠技术 <table><tr><td colspan="2"></td><td colspan="2">HBM3</td><td colspan="2">HBM3e</td><td colspan="2">HBM4</td><td colspan="2">HBM4e</td><td colspan="2">HBM5</td></tr><tr><td colspan="2">Stacking</td><td>8hi</td><td>12hi</td><td>8hi</td><td>12hi</td><td>12hi</td><td>16hi</td><td>12hi</td><td>16hi</td><td>16hi</td><td>>20hi</td></tr><tr><td colspan="2">NVIDIA AI GPU</td><td colspan="2">Hopper</td><td colspan="2">Blackwell</td><td colspan="2">Rubin</td><td colspan="2">TBD</td><td colspan="2">TBD</td></tr><tr><td colspan="2">NVIDIA CoWoSHBM</td><td colspan="2">5</td><td colspan="2">8</td><td colspan="2">8/12</td><td colspan="2">TBD</td><td colspan="2">3D stacking</td></tr><tr><td rowspan="3">Stacking Technology</td><td>SK hynix</td><td>MR-MUF</td><td>Advanced MR-MUF</td><td>MR-MUF</td><td>Advanced MR-MUF</td><td>Advanced MR-MUF</td><td>TBD</td><td>Advanced MR-MUF</td><td>TBD</td><td>TBD</td><td>Hybrid bonding</td></tr><tr><td>Samsung</td><td colspan="2">TC-NCF</td><td colspan="2">TC-NCF</td><td>TC-NCF</td><td>TBD</td><td>TC-NCF</td><td>TBD</td><td>TBD</td><td>Hybrid bonding</td></tr><tr><td>Micron</td><td colspan="2">TC-NCF</td><td colspan="2">TC-NCF</td><td>TC-NCF</td><td>TBD</td><td>TC-NCF</td><td>TBD</td><td>TBD</td><td>Hybrid bonding</td></tr></table> <table><tr><td>领域</td><td>公司</td><td>核心业务</td></tr><tr><td rowspan="4">设计</td><td>兆易创新</td><td>国内存储芯片与MCU双龙头企业</td></tr><tr><td>北京君正</td><td>国内领先的嵌入式CPU芯片及智能视频芯片设计企业</td></tr><tr><td>澜起科技</td><td>全球内存互连芯片领域龙头企业</td></tr><tr><td>普冉股份</td><td>存储芯片设计龙头</td></tr><tr><td rowspan="3">模组</td><td>德明利</td><td>国内企业级存储解决方案领军者</td></tr><tr><td>江波龙</td><td>全球领先的独立品牌半导体存储器厂商</td></tr><tr><td>佰维存储</td><td>全球领先的存储解决方案提供商</td></tr></table> 1. 周期向上,AI共舞 2. 半导体:国产化深水区,“先进存储+先进制造”助力 3.AI:代际演绎,供应链变革 4. 端侧:模型变现,探寻端侧入口 # 苹果重新定义AI——从“人工智能”到“个人智能” 概念重塑:苹果巧妙地将 AI 解释为 Apple Intelligence。它不再强调“全知全能”的大模型,而是强调 Personal Context(个人情境)。苹果的护城河之一在于:用户手机里所有的邮件、照片和日程,因此或许只有它能提供最懂用户的 AI 服务。 架构创新:提出了Private Cloud Compute(私有云计算)标准。这是一种“端云协同”的折中路线: - 小事端侧办:30亿参数的小模型直接在手机NPU上跑,保护隐私,无延迟。 - 大事云端办:遇到复杂任务,脱敏后传到苹果专用的云端服务器处理。 ■ 交互进化:战略重心从Chat转向Action。未来的Siri不再只是陪聊,而是Agent智能体。它能跨APP执行复杂指令,这是端侧AI商业变现的真正入口。 # 从“单兵作战”到“安卓统一战线”——Google的端侧反击战 战略大转折:Google的策略从早期的“Pixel独占”迅速转向“UnifiedAndroidAI”(统一安卓AI)。2025年初,Google意识到仅靠Pixel无法对抗iPhone。三星与Google携手推出GalaxyS25手机,这是为了通过三星庞大的出货量,迅速铺开AI能力,防止高端用户流向AppleIntelligence。 交互重构:Google正在用AI重写安卓系统("Android Reimagined with AI")。从"Circle to Search"(画圈搜索)开始,Google试图打破App之间的孤岛,让AI成为系统级的底层能力,而非仅仅是一个APP。其目标是让搜索无处不在("Search anything, anywhere")。 ■ 终极形态:未来的目标是Project Astra / Jarvis。Google定义的端侧AI终局是“Universal Agent”(通用智能体)。它不仅能够对话,更具备多模态实时感知能力,甚至能接管浏览器操作。这是Google试图将其在“搜索”上的优势,延伸到AI时代的“行动”优势。 ■ 手机厂商的进化:从2023年单纯把7B模型塞进手机(如vivo/OPPO),进化到了2024/2025年的Agent(智能体)革命。 - 荣耀(Honor): 推行“自动驾驶”级操作, 主打“一句话点咖啡”, 试图用 OS 接管 APP 的操作权。 华为/小米:侧重OS深度融合与人车家生态,让AI成为连接手机、汽车和智能家居的通用中枢。 大模型厂商的突围:互联网巨头不甘心只做APP,开始寻求硬件载体。 - 字节跳动:与努比亚 (Nubia) 合作,提出了“字节出脑,努比亚出体”的模式。手机只是载体,用户买的是“豆包”这个 AI 助理。这是一次软件定义硬件的大胆尝试。 - 阿里巴巴:联手荣耀折叠屏,通过集成“通义大模型”深耕商务场景(文档解析、办公),试图在细分领域重构生产力。 生态主权之战:“原生智能”vs“应用生态”。手机厂商(OS端)想要通过“识屏”来获取上下文,但这触动了超级APP(如微信)的基本盘。这场关于数据主权的博弈,或将是未来中国端侧AI发展的最大变数。 ■我们认为手机是通往下一代交互界面的必经之路。当前全球每年智能机出货量约12亿部,手机仍然是用户信息交互最频繁的设备,其硬件架构、操作系统、应用生态都已经相当成熟,在AI广泛应用前夜,我们认为,手机作为硬件入口的战略价值是决定性且暂时无可替代的,未来有望继续撬动百亿元级智能经济“新蓝海”。 ■ 豆包手机真正的突破在于系统级权限+多模态理解+跨应用编排三者的结合,豆包手机更强调智能体为中心:让AI像人一样主动理解需求、跨应用执行任务。 Counterpoint Research数据显示,截至25Q3,全球生成式AI手机累计出货量已突破5亿部,预计到2026年第三季度,累计出货量将突破10亿部大关。 图:AI演练的三个发展阶段 图:核心在于用户交互模式的改变 <table><tr><td>传统手机</td><td>当前AI手机</td><td>豆包AI手机</td><td></td></tr><tr><td>“手机是什么?”</td><td>“手机能做什么?”</td><td>“手机能帮我做什么?”</td><td></td></tr><tr><td>被动工具</td><td>智能工具</td><td>主动助手</td><td></td></tr><tr><td>用户主导</td><td>用户+AI共导</td><td>AI主动建议</td><td></td></tr><tr><td>识别意图</td><td>拆解子任务</td><td>跨应用执行</td><td>结果聚合</td></tr><tr><td>1条指令</td><td>6个子任务</td><td>5个应用</td><td>一个整体方案</td></tr></table> ■ AI手机预计将继续推动手机硬件性能全面升级,为适应持续扩大的端侧大模型的参数规模,以主控、存储为代表的硬件性能预计将继续提升,相关供应链有望持续受益。 ■手机流量入口预计将迎来价值重估。依托端侧AI的实时感知、隐私保护与跨应用调度能力,手机不再仅是流量分发的渠道,而成为理解、预测并直接满足用户需求的“数字中枢”。这一角色根本性转变,使其商业模式从“硬件销售+应用分发”的价值链下游,跃迁至“生态调度权”的价值核心,驱动其入口价值从工具属性向生态中枢的系统性重估。 图:AI手机带动硬件升级 <table><tr><td>硬件类别</td><td>核心要求</td><td>具体参数 / 标准</td><td>豆包手机配置</td></tr><tr><td>SOC</td><td>集成独立AI计算单元,支撑大规模AI任务与多模态大模型端侧部署</td><td>主流平台:联发科天玑9300/8300/9300+、高通骁龙8 Gen3/8s Gen3;核心单元:APU/NPU</td><td>高通骁龙8至尊版芯片</td></tr><tr><td>电池与充电</td><td>满足AI高频率推理任务耗电需求,保障快速补能与功耗优化</td><td>更大容量电池+大功率充电器;电源管理芯片升级</td><td>配备6000mAh电池,支持90w有线快充、15w无线充电</td></tr><tr><td>内存</td><td>容量与带宽双重提升,保障数据高速搬运与多任务并发</td><td>1.容量:130亿参数模型需13GB内存(INT8 精度),总需求达23GB;2.规格:LPDDR5X(带宽77GB/s)、LPDDR5T(速度9.6Gbps);3.优化:内存与NPU直连通道</td><td>16GB LPDDR5X</td></tr><tr><td>闪存</td><td>高速读写+大容量存储,适配模型存储与数据交互需求</td><td>1.规格:UFS 4.0(理论速度4640MB/s,全双工模式、低功耗);2.高端机型256GB起步,512GB/1TB成主流</td><td>512GB UFS 4.0存储</td></tr></table> 图:AI手机将带来品牌价值重估 智能眼镜持续演进,当前已经发展成为3种形态,未来市场发展空间广阔,沙利文预计2026年全球销量将突破1000万副,至2029年全球市场规模将突破1000亿元,AI+AR眼镜将逐步挤占AI音频眼镜和AI拍摄眼镜市场份额而成为主流产品。 ■ 音频AI智能眼镜:类OWS耳机,传统蓝牙音频眼镜接入AI大模型,是AI智能眼镜的基础形态,基本只支持音频播放和语音交互,AI大模型通过语音的方式提供基础的智能服务; 拍照AI智能眼镜:类OWS耳机+拍照,在音频AI智能眼镜的基础上增添高清摄像头,其AI大模型可通过摄像头感知周边环境,提供与当下环境具备交互能力的智能服务,实现第一视角拍摄,同时具备人脸识别、场景识别等智能化功能,为用户带来智能化拍摄及交互体验; AR+AI智能眼镜:类OWS耳机+拍照+AR显示,AR+AI智能眼镜通过采用Lcos、Micro OLED、Micro LED等显示屏技术叠加光波导技术实现AR显示效果,AI大模型可通过其实现实时信息显示及视觉呈现,可与眼镜用户进行更简单便捷的智能交互。 图:智能眼镜的分类和演进 图:全球AI智能眼镜及其细分产品市场规模,2023-2030(单位:亿元) AI眼镜(拍照+OWS):Ray Ban Meta作为当前眼镜行业的新品,其BOM成本约为164美元,综合硬件成本约为149美元,SOC芯片AR1 Gen 1的成本约为55美元,占比约33.54%,成本占比超三成;ROM+RAM的成本约为11美元,占比约6.71%;摄像头成本约为9美元,占比约5.49%。总体来看,SOC、光学、摄像头、ROM/RAM的合计核心成本达75美元,合计占比约为45.73%。 AR眼镜:与AI眼镜不同,AR眼镜中成本最大项为光机部分,以华为在2023年推出的vision glass(BB方案)为例,综合硬件成本BOM约为180.9美元,其中光机成本达到了130美元,占比高达72%,其中两块硅基oled屏幕成本为80美元、BB光学模组成本为50美元。 图:AI眼镜bom中芯片、结构件和代工占大头 图:AR眼镜新增重要成本项为光机 芯片方案国产厂商进展较快,如恒玄科技BES2800、全志V821等在部分性能指标上已达到或超越高通AR1 Gen1,国产化替代潜力较大。 对应多芯片拼搭式方式,当前智能眼镜芯片存在3种方案:系统级SoC方案、MCU+ISP方案,以及SoC+MCU双主控方案: 系统级soc方案 <table><tr><td>主控芯片(方案)</td><td>制程</td><td>应用厂商/产品</td></tr><tr><td>高通AR 1</td><td>4nm</td><td>Meta-Rayban、雷鸟V3、Rokid Glasses、雷神AI智能眼镜</td></tr><tr><td>展锐W517</td><td>12nm</td><td>闪极拍拍镜、INMO Go 2、视享科技、小满未来</td></tr></table> # MCU级SoC+ISP方案 系统级soc方案主控BES2800,作为低功耗主控MCU,专注传感器融合和语音处理,通过外接ISP的方式,实现图像处理功能。该方案使下游厂商可以根据自身需求选择搭配不同的ISP,灵活控制成本。目前已有的合作包括研极微电子SA62105X、酷芯微ARS45、星宸SSC309QL、富瀚微MC6350、瑞芯微RV1106B、君正T31ZX/T32Z等。 系统级SoC+MCU低功耗方案 <table><tr><td>主控厂商</td><td>协处理器</td><td>方案构成</td><td>典型应用厂商/产品</td></tr><tr><td rowspan="3">高通</td><td>恒玄 BES2700</td><td>W5100 + BES2700(12nm)</td><td>BleeqUp Ranger、希姆通、奇点临近 QIDI Vida</td></tr><tr><td>恒玄 BES2700</td><td>AR1 + BES2700(12nm)</td><td>小米AI智能眼镜</td></tr><tr><td>恒玄 BES2800</td><td>AR1 + BES2800(6nm)</td><td>阿里夸克AI眼镜</td></tr><tr><td>意法半导体</td><td>物奇微WQ7036</td><td>STM32N6(16nm) + WQ7036(22nm)</td><td>TENO 眼镜、莫界科技</td></tr><tr><td>MTK</td><td>恒玄 BES2700</td><td>MTK + BES2700(12nm)</td><td>深圳形意智能</td></tr><tr><td>全志科技</td><td>杰理 701X系列</td><td>V821(12nm) + 701X (TWS) 方案</td><td>青橙无线、优度智联、佰亿美科技、领为创新</td></tr><tr><td>炬芯科技</td><td>富瀚微 QM102V</td><td>ATS302 + QM102V</td><td>旷明智能</td></tr></table> 资料来源:XR Vision公众号,华源证券研究所 AR眼镜光学系统主要由决定了“光从哪里来”的微显示芯片与光引擎,和决定了“光如何进入眼睛”的光波导两部分构成,目前行业虽然仍处于相对早期,但是技术路径和发展方向已经逐步清晰。 ■ 主流显示技术有MicroLED、MicroOLED、LCoS和LBS等,在AR领域的应用主要是MicroLED和LCoS。 ■ AR设备的光学技术路线目前市场上方案包括棱镜、自由曲面、BirdBath、光波导等不同技术路径,其中较为成熟的是BirdBath方案,该方案光效相对较高,对适配显示方案要求低,且成本可控适合量产,是短期内控制成本和提升效果的有效落地方案。 图:AR眼镜光学系统目前存在多种技术路径 图:AR光学显示方案对比 <table><tr><td>分类</td><td>棱镜方案</td><td>离轴光学</td><td>自由曲面</td><td>BirdBath 方案</td><td>光波导方案</td></tr><tr><td>形态</td><td>棱镜块</td><td>头盔式</td><td>楔形</td><td>眼镜</td><td>眼镜</td></tr><tr><td>视场角 \( {\mathsf{{FOV}}}^{ \circ } \)</td><td>10-20°</td><td>80-100"</td><td>20-40-</td><td>40-60</td><td>20-60</td></tr><tr><td>透光率</td><td>40%-50%</td><td>50%-70%</td><td>40%-70%</td><td>25%-30%</td><td>80%-95%</td></tr><tr><td>出瞳距离</td><td>10-20mm</td><td>>30mm</td><td>15-25mm</td><td>10-15mm</td><td>15-30mm</td></tr><tr><td>光学效率</td><td>20%-30%</td><td>40%-50%</td><td>20%-40%</td><td>15%-20%</td><td>0.1%-3%</td></tr><tr><td>厚度</td><td>>10mm</td><td>>-20mm</td><td>>10mm</td><td>20-30mm</td><td>1-2mm</td></tr><tr><td>搭配微显示</td><td>OLED、LCOS</td><td>LCD、OLED</td><td>OLED</td><td>OLED</td><td>LCOS、 DLP、Micro LED</td></tr><tr><td>代表产品</td><td>Google Glass</td><td>Meta 2 等</td><td>EPSON BT300</td><td>Rokid Max 等</td><td>Magic Leap 2 等</td></tr></table> ■ OpenAI持续布局硬件产业,从收购由苹果前首席设计官JonyIve联合创办的AI硬件公司io Products,到如今组建研发团队自研AI硬件产品,OpenAI正从云端走向终端,试图以“模型+硬件”的闭环,重塑AI时代的硬件入口。 ■ OpenAI正在开发的产品线包括一款类似智能音箱但无显示屏的设备、智能眼镜、数字录音笔以及可穿戴胸针等多种硬件产品,目标是在2026年底或2027年初推出其首批设备,并计划在2030年前实现年交付1亿台的里程碑。 ■ OpenAI布局硬件意味着一个由AI驱动的消费电子新生态正在形成,其核心在于构建“模型-硬件-数据”的商业闭环,这预计将为核心零部件、整机制造,以及整个AI终端生态的参与者带来新机遇。 图:OpenAI硬件设备的猜想 AI手机预计将成为端侧AI落地最佳场景,目前正处于渗透率快速提升期,其有望带动手机BOM提升。相关标的聚焦于关键增量环节: 品牌终端:传音控股、中兴通讯、小米集团等; ODM/组装:华勤技术、龙旗科技、立讯精密等; 电池/充电:珠海冠宇、欣旺达、德赛电池等; - 存储:兆易创新、江波龙、佰维存储等; - 结构/散热:蓝思科技、春秋电子、飞荣达等。 AI眼镜预计是2026年最具潜力的新硬件形态,其投资逻辑或围绕技术瓶颈和价值高点展开: SoC/连接:恒玄科技、全志科技、炬芯科技,中科蓝讯、瑞芯微等; - 光学显示:水晶光电、蓝特光学等; 电池:豪鹏科技、珠海冠宇等; - 存储:佰维存储等; - ODM/OEM:歌尔股份(光学+声学+整机方案)、龙旗科技、华勤技术、天键股份、亿道信息等; 渠道/验配:博士眼镜、康耐特光学等 ■ 新硬件以及其他方向:信维通信,瑞芯微、晶晨股份、全志科技、乐鑫科技;漫步者、绿联科技,天键股份、环旭电子等 - 行业周期风险:宏观景气波动,导致周期复苏不及预期。宏观经济景气度存在阶段性波动,下游需求释放节奏受整体经济环境影响存在不确定性,易导致行业周期复苏的节奏放缓、力度不足,最终效果或不及预期。 ·竞争格局恶化风险:行业内厂商无序竞争风险。行业发展过程中,部分厂商为抢占市场份额、快速提升市占率,可能采取价格战、产能盲目扩张等非理性手段,引发行业内无序竞争。 - 新品放量风险:AI端侧尚处于产品定义探索阶段,新品放量节奏不可控。AI端侧领域目前仍处于技术落地与产品定义的探索磨合阶段,产品形态、应用场景及市场核心需求尚未完全定型,新品的研发落地、市场推广及规模化销量放量的节奏存在较大不确定性。 # 证券分析师声明 本报告署名分析师在此声明,本人具有中国证券业协会授予的证券投资咨询执业资格并注册为证券分析师,本报告表述的所有观点均准确反映了本人对标的证券和发行人的个人看法。本人以勤勉的职业态度,专业审慎的研究方法,使用合法合规的信息,独立、客观的出具此报告,本人所得报酬的任何部分不曾与、不与,也不将会与本报告中的具体投资意见或观点有直接或间接联系。 # 一般声明 华源证券股份有限公司(以下简称“本公司”)具有中国证监会许可的证券投资咨询业务资格。 本报告是机密文件,仅供本公司的客户使用。本公司不会因接收人收到本报告而视其为本公司客户。本报告是基于本公司认为可靠的已公开信息撰写,但本公司不保证该等信息的准确性或完整性。本报告所载的资料、工具、意见及推测等只提供给客户作参考之用,并非作为或被视为出售或购买证券或其他投资标的的邀请或向人作出邀请。该等信息、意见并未考虑到获取本报告人员的具体投资目的、财务状况以及特定需求,在任何时候均不构成对任何人的个人推荐。客户应对本报告中的信息和意见进行独立评估,并应同时考量各自的投资目的、财务状况和特殊需求,必要时就法律、商业、财务、税收等方面咨询专家的意见。对依据或使用本报告所造成的一切后果,本公司及/或其关联人员均不承担任何法律责任。任何形式的分享证券投资收益或者分担证券投资损失的书面或口头承诺均为无效。 本报告所载的意见、评估及推测仅反映本公司于发布本报告当日的观点和判断,在不同时期,本公司可发出与本报告所载意见、评估及推测不一致的报告。本报告所指的证券或投资标的价格、价值及投资收入可能会波动。除非另行说明,本报告中所引用的关于业绩的数据代表过往表现,过往的业绩表现不应作为日后回报的预示。本公司不承诺也不保证任何预示的回报会得以实现,分析中所做的预测可能是基于相应的假设,任何假设的变化可能会显著影响所预测的回报。本公司不保证本报告所含信息保持在最新状态。本公司对本报告所含信息可在不发出通知的情形下做出修改,投资者应当自行关注相应的更新或修改。本报告的版权归本公司所有,属于非公开资料。本公司对本报告保留一切权利。未经本公司事先书面授权,本报告的任何部分均不得以任何方式修改、复制或再次分发给任何其他人,或以任何侵犯本公司版权的其他方式使用。如征得本公司许可进行引用、刊发的,需在允许的范围内使用,并注明出处为“华源证券研究所”,且不得对本报告进行任何有悖原意的引用、删节和修改。本公司保留追究相关责任的权利。所有本报告中使用的商标、服务标记及标记均为本公司的商标、服务标记及标记。 本公司销售人员、交易人员以及其他专业人员可能会依据不同的假设和标准,采用不同的分析方法而口头或书面发表与本报告意见及建议不一致的市场评论或交易观点,本公司没有就此意见及建议向报告所有接收者进行更新的义务。本公司的资产管理部门、自营部门以及其他投资业务部门可能独立做出与本报告中的意见或建议不一致的投资决策。 # 信息披露声明 在法律许可的情况下,本公司可能会持有本报告中提及公司所发行的证券并进行交易,也可能为这些公司提供或争取提供投资银行、财务顾问和金融产品等各种金融服务。本公司将会在知晓范围内依法合规的履行信息披露义务。因此,投资者应当考虑到本公司及/或其相关人员可能存在影响本报告观点客观性的潜在利益冲突,投资者请勿将本报告视为投资或其他决定的唯一参考依据。 # 投资评级说明 证券的投资评级:以报告日后的6个月内,证券相对于同期市场基准指数的涨跌幅为标准,定义如下: 买入:相对同期市场基准指数涨跌幅在 $20\%$ 以上; 增持:相对同期市场基准指数涨跌幅在 $5\% \sim 20\%$ 之间; 中性:相对同期市场基准指数涨跌幅在 $-5\% \sim +5\%$ 之间; 减持:相对同期市场基准指数涨跌幅低于 $-5\%$ 及以下。 无:由于我们无法获取必要的资料,或者公司面临无法预见结果的重大不确定性事件,或者其他原因,致使我们无法给出明确的投资评级。 行业投资评级:以报告日后的6个月内,行业股票指数相对于同期市场基准指数的涨跌幅为标准,定义如下: 看好:行业股票指数超越同期市场基准指数; 中性:行业股票指数与同期市场基准指数基本持平; 看淡:行业股票指数弱于同期市场基准指数。 我们在此提醒您,不同证券研究机构采用不同的评级术语及评级标准。我们采用的是相对评级体系,表示投资的相对比重建议; 投资者买入或者卖出证券的决定取决于个人的实际情况,比如当前的持仓结构以及其他需要考虑的因素。投资者应阅读整篇报告,以获取比较完整的观点与信息,不应仅仅依靠投资评级来推断结论。 本报告采用的基准指数:A股市场基准为沪深300指数,香港市场基准为恒生中国企业指数(HSCEI),美国市场基准为标普500指数或者纳斯达克指数。 # 華源证券 HUAYUAN SECURITIES