> **来源:[研报客](https://pc.yanbaoke.cn)** # 2026 # 行业研究系列 # 太空算力发展研究报告 # 商业航天时代来临,开启下一代计算范式的苍穹革命 # 关于深企投产业研究院 深企投产业研究院是深企投集团旗下的高端智库,聚焦产业发展,服务区域经济,致力于为各地提供产业发展落地方案。研究院总部位于深圳,服务区域覆盖全国主要省市。研究院集聚一批经济研究和产业研究专家,以985院校研究生为主体,链接高校专家学者,为全国各地政府及机构提供智力支持。 基于自身的研究和咨询能力,同时借助集团的服务网络,深企投产业研究院为政府机构、国有平台、产业园区、金融机构等客户类型提供有针对性的服务。 ——政府机构客户。研究院重点提供五类服务:一是五年规划,包含发改系统的国民经济和社会发展总体规划,工信、商务、投促、文旅等政府部门的专项五年规划;二是产业规划,包含地区、片区的产业定位和产业发展专项规划;三是招商专题研究,包括产业链招商策略、招商规划、招商专案、招商图谱等;四是项目策划,发掘和策划包装契合区域禀赋、产业趋势和投资方向的项目,助力宣传推介和精准招商对接,或策划申报超长期国债等地方重点投资项目;五是项目评估,涵盖地方重点投资项目的风险评估、招商引资项目背景调查、产业基金拟投资项目尽职调查等。 ——国有平台客户。针对新时期全国各地国有城投、产投公司向国有资本投资运营转型发展的需要,聚焦国有平台投资布局的新质生产力和重点产业赛道,研究院提供产业情报、产业发展规划、企业投资标的尽职调查等服务。 ——产业园区客户。为国有园区、工业地产客户提供园区产业规划定位、产品定价策略、产品设计方案、招商运营服务方案、渠道和品牌推广策略、产业培训等服务。 ——金融机构客户。为机构投资者提供产业细分领域深度研究、投资分析、标的尽职调查等服务,减少投资过程中的信息不对称,提高投资决策准确率。 自2020年至今,深企投产业研究院团队已完咨询服务项目近百个,完成研究报告数百份,服务的地区包括广东、江苏、浙江、福建、广西、云南、贵州、湖北、四川、陕西、宁夏等多个省市。 在产业研究领域,深企投产业研究院在新质生产力、战略性新兴产业、未来产业研究上具有深厚积累,每年发布原创深度报告近百份。有关低空经济、商业航天、卫星互联网、新型储能、人形机器人、生物制造、脑机接口、全球供应链等报告已获得广泛传播。 # 目录 # 第一篇 太空算力概述 # 一、太空算力概念 2 # 二、太空算力的技术内涵与架构 5 (一)核心范式改变:从天感地算到天数天算、天地一体协同计算 (二)技术功能层级:从边缘到云网 (三)系统核心构成:应对极端环境的四大支柱……8 # 三、太空算力的发展背景 9 (一)全球算力需求及投资超预期上涨 9 (二)传统地面数据中心扩张难以匹配AI时代的算力需求……9 1、地面数据中心耗电规模持续扩大,地面电网容量供给失衡 10 2、散热能耗、水资源消耗与土地规模需求庞大……12 (三)太空算力具备长期运营成本优势 14 优势一:取之不尽、边际成本趋零的能源优势……14 优势二:利用宇宙深冷的零水耗散热优势 14 (四)商业航天技术进步,发射成本将进入可负担区间……16 1、SpaceX引领全球商业航天发展,发射成本快速下降..16 2、我国商业航天企业加快追赶,可重复使用火箭实验密集发射 19 # 第二篇 中美太空算力布局进展 # 一、美国太空算力研发布局进展 23 (一)SpaceX 23 (二)亚马逊 24 (三)StarCloud 24 (四)英伟达 25 (五)谷歌 25 # 二、中国太空算力研发布局进展 26 (一)中国科学院计算技术研究所 27 (二)武汉大学 27 (三)之江实验室 28 (四)国星宇航 28 (六)北京邮电大学 29 (七)北京星辰未来空间技术研究院 29 # 第三篇 发展瓶颈与突破路径 一、太空发电与高效能源系统挑战 32 二、高可靠材料与元器件挑战 33 三、储能技术挑战 34 四、热管理技术挑战 35 五、高速通信挑战 36 六、在轨运维挑战 37 七、空间安全防护挑战 39 八、轨道资源与国际协调挑战 40 # 01 # 太空算力概述 传统低轨卫星正经历从“天感地算”向“天数天算”的范式跃迁,不再仅作为数据采集与转发终端,而是演进为具备在轨智能决策能力的自主智能体。这一转变将显著提升对遥感观测、环境监测、灾害预警、交通调度、军事侦察及战场指挥等高实时性任务的响应速度与处理效率。 与此同时,AI技术的爆发式发展正推动全球算力需求与投资规模急速攀升。然而,传统地面数据中心的扩张已难以跟上AI时代的算力增速,并对全球电力系统带来前所未有的压力。在美国,数据中心激增的电力与水资源消耗已引发局部电网紧张和公众舆论反弹,凸显其可持续发展的瓶颈。 相比之下,太空算力(或太空数据中心)天然具备近乎无限的太阳能资源,能源边际成本趋近于零,且无需冷却水、无散热能耗,在绿色低碳方面具有结构性优势。一旦突破商业航天的运力与成本瓶颈,特别是将发射成本降至约200美元/公斤的关键阈值,太空算力的大规模商业化将真正成为可能。依托以SpaceX为代表的商业航天企业持续推进的可重复使用火箭技术,以及新一代重型运载火箭(如星舰)的逐步成熟,业界普遍预测,这一临界点有望在2030至2035年间实现,开启“天地一体、协同计算”的人类算力新纪元。 # 一、太空算力概念 太空算力(Space-based Computing)是一种将高性能计算、人工智能与边缘计算能力集成于太空环境中,依托太空空间平台构建分布式计算网络或太空数据中心的全新计算范式。天空算力的直接目标是实现数据在采集源头(太空)的实时处理、智能分析与自主决策,推动卫星、空间站等太空平台从传统的“数据采集与转发终端”升级为具备自主决策能力的“在轨智能体”。目前,“太空算力”、“太 空计算”、“天基计算”、“太空数据中心”、“轨道数据中心”等术语并存,含义高度重叠但尚未统一,行业标准化进程仍处于早期阶段。 太空算力是一个被产业广泛接受并积极推动的技术愿景和产业方向。太空算力代表着计算基础设施向太空的延伸,其核心是通过体系化的技术架构,利用太空的独特环境优势,实现计算范式的根本性变革,从而构建一个高能效、低延迟、全球覆盖的智能计算新边疆。尽管具体的标准有待确立,但对其颠覆性潜力的认知已成为全球科技与航天领域的共识。 太空算力按照距离地球的远近,可分为临近空间算力、同步轨道算力,以及未来人类进入大宇航时代的月球算力、火星算力等深空算力类型。目前正在推进的太空算力,是依托近地轨道卫星承载服务器、AI芯片、存储设备等计算资源,再由多颗计算卫星组网形成太空计算星座,从而构建分布式的轨道数据中心,以提供强大的太空算力。 图1 太空算力分类(按距离地球远近) 资料来源:龚春叶《太空超算:概念、挑战及应用》,深企投产业研究院整理。 太空算力并非一个凭空诞生的概念,而是人工智能浪潮与商业航 天技术成熟交汇下的必然产物,代表了一种全新的计算范式与基础设施形态。太空算力的雏形可追溯至20世纪末的航天测控与卫星数据处理,早期主要用于航天任务的轨道计算、遥感数据传输等场景。随着以SpaceX星链为代表的商业航天和人工智能的发展,传统卫星“单一功能、地面依赖”的模式被打破,逐步向天基平台算力部署、星上数据处理、天地协同计算升级,最终形成“太空算力”的明确概念。 图2 三体计算星座示意图 资料来源:《半月谈》2025年第11期。 # 二、太空算力的技术内涵与架构 太空算力远非地面服务器等算力基础设施“搬家”上天,而是一个完整的体系化架构,其技术内涵体现在以下几个层面: # (一)核心范式改变:从天感地算到天数天算、天地一体协同计算 传统低轨卫星的工作模式通常被称为“天感地算”,即在太空中感知、在地面上计算。在此模式下,低轨卫星主要作为数据采集与转发终端,其核心功能是获取遥感或其他观测数据,并将其原始形式完整传回地面站,再由地面数据中心完成后续的处理、分析与存储。 “天感地算”传输延迟大、处理周期长。随着观测精度提升,卫星数据量激增。例如,一颗太阳监测卫星每天可产生约500GB的观测数据,而地球观测等卫星产生的数据量已达PB级。然而,现有先采后传、地面集中处理的架构存在明显瓶颈,受限于有限的地面站覆盖和星地通信带宽,卫星每天产生的海量原始数据难以全部下传。据估算,高达 $90\%$ 的潜在有效数据因传输能力不足而被迫丢弃。同时,从数据采集到最终可用结果的生成往往需要数小时、数天乃至数周,应用的时效性与响应能力不足,制约了遥感、灾害监测、军事侦察等高实时性任务的发展。 太空算力实现了“天数天算”。在轨卫星直接对原始数据进行处理、筛选和智能分析,仅将高价值的分析结果或关键信息(KB/MB级)下传。这从根本上破解了数据传输瓶颈,将响应时间从“小时级”压缩至“分钟甚至秒级”。比如,在森林火灾监测中,通过在轨运行火点识别AI模型,卫星可在数秒内完成火情初判并触发告警,实现感知—分析—响应一体化,大幅提升应急响应能力与资源调度效率。 传统地面处理模式过境下传,小时/天按任务处理 全新星上处理模式分秒级实时连续处理 资料来源:星测未来StarDetect。 图3 天基计算体系变化 表 1 天感地算与天数天算对比 <table><tr><td>对比维度</td><td>天感地算</td><td>天数天算</td></tr><tr><td>数据处理位置</td><td>地面数据中心</td><td>在轨卫星/轨道数据中心</td></tr><tr><td>下行数据量</td><td>海量原始数据(TB/GB级)</td><td>高价值信息/处理结果(KB/MB级)</td></tr><tr><td>核心瓶颈</td><td>星地通信带宽</td><td>星上算力与智能算法</td></tr><tr><td>响应时效</td><td>小时/天/数周</td><td>分钟/秒级</td></tr><tr><td>数据利用率</td><td>低(大量数据废弃)</td><td>高(在轨筛选与提炼)</td></tr></table> 资料来源:深企投产业研究院整理。 天地一体协同计算被视为“天数天算”演进的终极形态。随着“星链”“星算”等大规模低轨星座计划的加速部署,未来将构建由星间高速通信(如激光链路)与高效星地互联共同支撑的天地协同网络,形成覆盖全球、低时延、高吞吐的分布式在轨算力基础设施。在此架 构下,地面数据中心与在轨计算节点将实现深度融合与动态协同,支持多种灵活的算力调度范式: ——地数天算:将地面高并发或能效敏感的计算任务上载至太空节点处理。 ——天数地用:利用在轨智能处理结果直接赋能地面实时应用,如环境监测与灾害预警、交通调度、国防安全与战场指挥等。 通过构建天地互补、按需调度的算力生态,该体系将为全球范围内的智能应用提供泛在、弹性且可持续的算力支撑,加速天基智能从技术验证迈向规模化商业落地。 # (二)技术功能层级:从边缘到云网 太空算力在功能上可划分为太空边缘计算、太空云计算、太空分布式计算三个递进层次: ——太空边缘计算。在数据源头即单颗卫星上进行实时的数据处理、分析与智能过滤,从而大幅减少需传回地面的冗余数据量,显著提升系统响应速度、通信效率及卫星的自主决策能力。典型应用包括对遥感图像进行在轨云检测、地物分类、目标初筛甚至异常事件识别,为应急响应、环境监测和军事侦察等时效敏感任务提供关键支撑。 ——太空云计算。在太空边缘计算的基础上,依托星间高速激光或射频通信链路与统一的分布式计算框架,在轨构建具备弹性伸缩、高可用性和服务化能力的天基云计算基础设施。该体系可为遥感处理、轨道计算、人工智能推理等任务提供按需分配、动态调度的计算资源与平台服务,使用户如同使用地面主流云服务一般,无缝调用太空中的算力资源。 ——太空分布式计算。通过整合卫星星座、空间站、深空探测器等多类太空平台上的异构计算节点,构建一个广域互联、协同运作的 天基分布式计算网络。各节点不仅承担本地数据处理、存储与转发功能,还能基于任务需求动态协作,实现跨轨道、跨平台的数据融合、联合分析与负载均衡,从而为大规模空间科学实验、全球实时监测和未来深空探索任务提供强有力的支撑。 # (三)系统核心构成:应对极端环境的四大支柱 一个完整的太空算力系统是复杂的系统工程,其稳定运行依赖于四大关键模块: ——算力模块。太空算力系统的核心,主要由星载服务器集群构成,需集成抗辐射加固的高性能CPU、GPU及专用AI加速芯片。该模块必须在卫星平台严苛的体积、重量与功耗约束下,实现高算力密度、低能耗运行和长期可靠工作。典型部署形式包括多芯片集成架构或紧凑型机柜设计,以支撑在轨任务对计算性能的持续需求,并确保在无人运维条件下稳定运行5至15年。 ——能源系统。主要由太阳能电池阵、电源控制器和储能电池三个部分组成。太阳能电池阵在晨昏轨道等特定轨道,可近乎实现24小时不间断日照,且无大气衰减,太阳能利用效率可达地面的5倍以上,为系统提供持续、近乎无限的清洁能源。电源控制器负责调节、分配和管理整个卫星平台的电力;储能电池则在卫星运行至地球阴影区时,为关键负载提供不间断的电力保障。 ——散热系统。太空接近绝对零度( $-270^{\circ}\mathrm{C}$ )的真空环境是天然的散热场。热量无法通过对流传导,主要依靠热辐射散发。通常采用“热管/泵驱两相流体回路+大型辐射散热板”方案,将芯片废热以红外辐射形式排向深空,彻底摆脱了对水冷系统的依赖。 ——通信链路。用于实现多星协同与天地互联,包括星间链路和星地链路。其中,星间激光通信是实现多星协同、构建分布式“轨道 数据中心”网络的关键,具备高带宽、低延迟、强抗干扰和低截获概率等优势,当前单链路传输速率已达到100-400Gbps,有望为未来在轨协同计算提供高速骨干网支撑。同时,星地链路则通过微波或激光手段,实现卫星与地面站之间的高效数据回传与指令交互,是连接天基算力资源与地面用户的关键通道。 # 三、太空算力的发展背景 # (一)全球算力需求及投资超预期上涨 AI技术迭代加速,全球算力需求呈现持续上涨趋势。根据华为《智能世界2030》报告预测,2030年,人类将迎来YB数据时代,对比2020年,通用算力将增长10倍、人工智能算力增长500倍,算力需求十年百倍的增长将成为常态。根据《中国综合算力指数报告(2024)》预测,未来10年全球算力需求将达到2024年的70倍以上。 算力投资规模正持续快速攀升,对全球电力系统构成前所未有的压力。2024年,美国微软、谷歌、Meta和亚马逊四大科技巨头在AI数据中心的建设和运营上合计投入已超过2000亿美元,预计2025年将突破3000亿美元。麦肯锡进一步预测,到2030年,全球在数据中心基础设施(不含IT硬件)上的资本支出将超过1.7万亿美元。在此背景下,可负担得起、可靠且可持续的电力供应已不再仅是基础设施问题,而是决定AI能否持续发展与规模化落地的核心要素。美国科技巨头发起的全球数据中心建设浪潮,已将“电力优先(PowerFirst)”确立为战略共识——稳定的电力保障被视为训练更强大模型、满足推理需求、抢占市场份额并最终实现商业回报的战略底座。 # (二)传统地面数据中心扩张难以匹配AI时代的算力 # 需求 传统地面数据中心正面临能源、散热与水资源消耗等多重约束,其扩张速度已难以匹配AI时代指数级增长的算力需求,具体如下: # 1、地面数据中心耗电规模持续扩大,地面电网容量供给失衡 2030年全球数据中心用电量最高可达当前3倍。根据国际能源署(IEA)2025年4月发布的报告显示,2024年全球数据中心耗电已达415太瓦时(TWh),占全球总用电量的 $1.5\%$ ;在基准情景下,预测到2030年,全球数据中心的用电量将达到约945TWh,占2030年全球总用电量的近 $3\%$ ;在高增长情景(Lift-Off Case)下,2030年全球数据中心用电量将达到1250TWh,2035年则接近1750TWh,占全球总用电量的 $4.4\%$ 。根据麦肯锡预测,到2030年全球数据中心用电量将达到1400TWh,占全球总用电量的 $4\%$ 。兰德公司(Rand)的预测更为激进,认为到2030年,单个AI训练任务的电力需求可能高达8吉瓦(GW),相当于8座大型核反应堆的功率。 预计2030年数据中心用电量占我国总用电量 $5\%$ 左右。根据北京理工大学能源与环境政策研究中心2025年1月发布的《数据中心综合能耗及其灵活性预测报告》,2024-2030年,全国数据中心用电量年均增速将达约 $20\%$ ,远超全社会用电量增速;2025年我国数据中心电耗将占到全国电耗的 $2.4\%$ ,一些节点城市和区域占比超过 $20\%$ ;到2030年,我国数据中心用电负荷将达1.05亿千瓦,全国数据中心总用电量约为5257.6亿千瓦时(525.76TWh),用电量将占到全社会总用电量的 $4.8\%$ 。 预计2030年数据中心用电量占美国总用电量 $10\%$ 以上。根据美 国能源部(DOE)在2024年底发布劳伦斯伯克利国家实验室(LBNL)撰写的报告,数据中心用电量从2014年的58TWh上升到2023年的176TWh,占美国总用电量的 $4.4\%$ ;预计到2028年,这一需求将呈指数级增长,预测数值在325TWh到580TWh之间,可能占美国总用电量的 $6.7\%$ 到 $12\%$ 。根据麦肯锡预测,美国数据中心用电量将从2023年的147TWh增长至2028年的450TWh,占美国电力需求的比重从 $3.7\%$ 增长至 $9.3\%$ ,2030年数据中心用电量进一步提升至606TWh,占电力消费的 $11.7\%$ 。根据国际能源署预测,到2030年美国数据中心用电增量将占美国整体电力需求增量近一半,美国经济处理数据消耗的电力将超过制造所有能源密集型商品的总和。 AI驱动的电力需求激增与地面电网容量供给之间存在失衡。根据国际能源署分析,电网容量限制可能致使全球约 $20\%$ 计划于2030年前投建的数据中心容量遭遇延迟,进而导致部分AIDC无法按期投入运营。现有的电力来源类型,包括水电、风电、核电、光伏、燃气发电和煤电,均存在不同程度的问题,具备可调度能力的清洁能源(如核电)建设周期普遍偏长,无法匹配当前AI的快速需求;而建设速度较快的能源则稳定性不足(如光伏、风电)或碳排放高(燃气发电、煤电)。没有哪一种电源能够同时满足建设速度快、调度能力强、低碳环保三方面的要求,使得能源供应和AI对电力的需求出现明显脱节。 图4 不同电力来源特征 资料来源:国际能源署《2025能源与人工智能报告》,国泰海通证券。 北美电网基础设施普遍老化,且长期缺乏系统性升级,叠加冗长复杂的电力接入审批流程,严重制约了数据中心新增负荷的及时供电能力。与此同时,数据中心高度集中于特定区域(如弗吉尼亚州北部等核心枢纽),与可再生能源及稳定电源的地理分布存在显著错配,进一步加剧了局部电网的承载压力,导致部分地区出现电力供应瓶颈,不仅延长了项目投运周期,也显著推高了建设和运营成本。例如,弗吉尼亚州北部部分数据中心面临长达七年的电网接入等待期;马斯克旗下xAI公司因无法及时获得稳定市电供应,被迫租用便携式燃气发电机作为临时替代方案。在此背景下,2025年1月,特朗普政府宣布进入国家能源紧急状态,援引《国家紧急状态法》与《国防生产法》授权,旨在加速能源基础设施审批以应对AI负载激增。 # 2、散热能耗、水资源消耗与土地规模需求庞大 功耗密度攀升倒逼散热技术代际切换。在AI大模型训练以及推 理需求持续扩容驱动下,GPU芯片作为算力核心,其功耗与性能密度正同步跃升。英伟达机架系统计算容量已从传统10-20kW提升至当前约140kW,并规划2027年推出600kW级高密度机架,GPU晶粒容纳数量相应从32个增至576个,单位面积热流密度随之呈指数级增长。据产业测算,百万卡GPU集群的局部热流密度可超250瓦/平方米( $\mathrm{W} / \mathrm{m}^2$ ),远超传统风冷技术100-150W/ $\mathrm{m}^2$ 的散热能力上限,迫使数据中心加速从空气冷却向冷板液冷、浸没式液冷等方案迭代。这一技术转型直接推高资本开支,液冷系统初始投资较风冷增加 $30\% - 50\%$ ,同时冷板液冷仍存在水性冷却剂泄漏风险,且需应对现有数据中心改造的兼容性与成本问题;浸没式冷却则受制于高性能氟化液的高成本及其潜在环境影响。因此,液冷技术作为当前最先进的散热技术,仍无法从根本上解决散热效率问题。 冷却能耗与水耗构成双重运营瓶颈。散热系统能耗通常占数据中心总能耗 $30\% - 40\%$ ,在超大规模AI集群中甚至可达 $45\%$ 以上。与此同时,散热过程伴随的水资源消耗问题日益凸显,成为制约数据中心可持续发展的关键瓶颈。虽然液冷技术能够大幅降低水资源需求,但由于AI训练集群规模呈指数级扩张,一个万卡GPU集群的总算力可能相当于过去数百个传统数据中心,且主要依赖蒸发冷却,因此短期内水耗仍在增加。 根据美国劳伦斯伯克利国家实验室的研究预测,到2028年,全美数据中心年耗水量将攀升至约740亿加仑(约合2800万吨)。以Meta为例,其部分数据中心日最高用水量高达600万加仑,甚至超过所在郡的居民日用水总量。测算显示,一个40兆瓦(MW)规模的数据中心集群在其10年运营周期内,冷却系统累计耗水量可达170万吨。 在欧洲,Javier Farfan 团队的研究进一步指出,数字服务相关用水量预计将从 2022 年的 2.09 亿吨增至 2030 年的 5.47 亿吨。届时,欧洲人均每日因使用数字服务所产生的间接水足迹将超过 3 升,已高于世界卫生组织建议的人均日常饮用水基本需求(约 2-3 升)。 数据中心对能源及水资源的大量消耗引发了美国当地居民的强烈反弹,仅在2025年第二季度,就有20个大型数据中心项目因当地社区的反对而被叫停或推迟,涉及投资额高达980亿美元。 # (三)太空算力具备长期运营成本优势 # 优势一:取之不尽、边际成本趋零的能源优势 太空太阳能具有超高发电效率与持续供电能力。地球大气层外的太阳辐照度(AMO标准)约为 $1366\mathrm{W} / \mathrm{m}^2$ ,比到达地球海平面的强度(约 $1000\mathrm{W} / \mathrm{m}^2$ )高出约 $30\% -40\%$ ,且无大气衰减。地面太阳能电站受昼夜和天气影响,平均容量因数(实际发电量与最大理论发电量之比)较低,例如美国平均约 $24\%$ ,北欧温带地区可能低于 $10\%$ 。而部署在特定轨道(如晨昏太阳同步轨道)的太空太阳能阵列,可实现近乎24小时不间断光照,容量因子可超过 $95\%$ 。综合来看,同等规模的太阳能阵列,在太空的年发电量可达地面的5倍以上。 # 优势二:利用宇宙深冷的零水耗散热优势 与能源优势相辅相成的是太空独一无二的散热环境。太空的真空与接近绝对零度的背景,提供了地面无法企及的终极热沉。在太空中,对流和传导基本失效,热辐射成为主导散热机制。热量通过热管或主动式液体冷却回路,从芯片传导至卫星表面的大型辐射散热板,然后以红外辐射形式直接散发到背景温度约为 $-270^{\circ}\mathrm{C}$ (3K)的宇宙深空中。对于高功率算力卫星,可以采用主动式液体冷却回路甚至直接芯 片液冷技术,并配备面积巨大的可展开散热翼板,以提升辐射散热能力。在水资源消耗方面,太空数据中心彻底摆脱了对冷却塔蒸发、水冷液循环等水资源的高度依赖。 根据StarCloud分析,在未来商业航天成熟、发射成本大幅下降后,单个40MW集群在太空运营10年期的总成本约为820万美元,而地面运营成本高达1.67亿美元(美国),开源证券测算在中国对应运营成本为0.97亿美元,如下表所示。 表 2 单个 40MW 算力集群在太空与地面运营 10 年的成本对比 <table><tr><td>成本项目</td><td>地面(美国)</td><td>地面(中国)</td><td>太空</td></tr><tr><td>能源成本</td><td>1.4亿美元 (按0.04美元/kWh计算)</td><td>0.7亿美元(按0.02美元/kWh计算)</td><td>200万美元(仅为太阳能电池阵列的成本)</td></tr><tr><td>发射成本</td><td>无需</td><td>无需</td><td>500万美元(计算模块、太阳能电池和散热器的一 次性发射成本)</td></tr><tr><td>冷却能耗</td><td>700万美元(占总功耗的5%)</td><td>700万美元</td><td>利用太空更高的温差,采用更高效的冷却架构</td></tr><tr><td>用水量</td><td>170万吨</td><td>——</td><td>无需</td></tr><tr><td>封装(卫星平台/建筑成本)</td><td>成本相近</td><td>成本相近</td><td>成本相近</td></tr><tr><td>备用电源</td><td>2000万美元(按商业设备价格计算)</td><td>2000万美元</td><td>无需</td></tr><tr><td>其他数据中心 硬件</td><td>成本相近</td><td>成本相近</td><td>成本相近</td></tr><tr><td>辐射屏蔽</td><td>无需</td><td>无需</td><td>120万美元(按计算功率每kW需1kg屏蔽物,发射成本30美元/kg计算)</td></tr><tr><td>成本合计</td><td>1.67亿美元</td><td>0.97亿美元</td><td>820万美元</td></tr></table> 资料来源:StarCloud《Why we should train AI in space》、开源证券,深企投产业研究院整理。 # (四)商业航天技术进步,发射成本将进入可负担区间 发射与运载能力瓶颈是太空算力从蓝图走向现实必须跨越的第一道“天堑”。太空数据中心要实现与地面数据中心可比的运营经济性,一个关键的盈亏平衡点在于将发射成本降至约200美元/公斤。当前,高昂的发射成本使得经济可行性存疑,SpaceX对外商业报价在3000美元/公斤左右,国内则达到8万元/公斤。同时,当前有限的火箭运力也限制了太空基础设施的构建速度与单体规模。 商业航天尤其是可回收火箭技术的成熟,正使进入太空的门槛急剧降低。目前,SpaceX猎鹰9号已将发射成本降至约1500美元/公斤以下,预计2030年以后SpaceX的单位发射成本降至200美元/公斤以下,为太空算力商业化铺平道路。当前我国商业航天卫星发射成本远高于SpaceX,发射频次与运力差距极大,成为太空算力商业化的最大瓶颈。 # 1、SpaceX引领全球商业航天发展,发射成本快速下降 SpaceX猎鹰9号自2015年首次成功回收一级火箭(助推器)以来,已常态化执行一级回收,至2025年底执行了500多次重复使用助推器的复飞任务。2025年12月8日,猎鹰9号执行Starlink6-92任务,将29颗星链卫星送入低地球轨道,本次一级助推器B1067完成第32次使用。2019年起猎鹰9号实现整流罩海上打捞与翻新复用,整流罩复用次数最高达30余次。猎鹰9号的全新火箭成本约 4500- 5000万美元,通过一级火箭和整流罩的回收和重复使用,复用成本(也可理解为边际成本)可降至1500万美元,其中包含制造不可复用的二级火箭(约1000万美元)、推进剂、氦气、发射测控、翻修等相关费用。根据测算,当复用次数10次以上时,猎鹰9号的平均发射成本趋近于1700万美元。 图5 复用情况下猎鹰9运载火箭的平均成本 资料来源:朱雄峰等《猎鹰-9 运载火箭发射成本研究》。 以多次复用后的平均成本1700万美元计算,按照海上回收低轨卫星运力19吨、陆上回收低轨卫星运力14吨,可推算出猎鹰9号的发射成本最低可至900-1200美元。目前,SpaceX猎鹰9号已将发射成本降至约1500美元/公斤以下(非对外商业报价),相比传统一次性火箭(约1.85万美元/公斤)降低了约一个数量级,而重型猎鹰(FalconHeavy)的发射成本进一步降至1400-1500美元/公斤。SpaceX下一代星舰(Starship)的目标是进一步将发射成本降至每 公斤60-200美元。 图6SpaceX总载荷质量(吨)以及每公斤有效成本曲线 资料来源:Reddit,TECTONYX,未来天玑,中邮证券。 预计2030年以后SpaceX的单位发射成本将降至200美元/公斤以下,为太空算力商业化铺平道路。根据谷歌内部模型的测算,以Starlink v2 Mini卫星为参照,在200美元/公斤的发射成本假设下,将其送入低地球轨道并按5年在轨寿命分摊,对应的“发射功率价格”(即单位算力功率的年化发射成本)约为810美元/kW/年。这一数值已显著低于当前美国地面数据中心的综合电力成本区间,后者因地区、能源结构和冷却效率差异,通常在570美元至3000美元/kW/年之间(含PUE损耗及电费)。这意味着,一旦SpaceX的星舰(Starship)系统实现完全可复用,并将发射成本稳定压降至200美元/公斤以下,太空部署AI算力的“能源等效成本”将首次具备经济优势,甚至全面低于地面数据中心。值得注意的是,SpaceX历史上展现出极强的成本学习曲线,其累计发射质量每翻一番,单位发射成本平均下降约 $20\%$ 。若该降本趋势延续,结合星舰设计运力(100-250吨),200美元/公斤的发射成本有望在2030-2035年间达成,从而为太空算力的 商业化铺平道路。 # 2、我国商业航天企业加快追赶,可重复使用火箭实验密集发射 当前我国商业航天卫星发射成本远高于SpaceX。根据《科创板日报》援引业内人士说法,目前国内卫星发射费用存在明显差异,主流商业发射报价集中在每公斤5万-10万元,但部分小型火箭或特殊轨道发射,费用仍可达每公斤15万元。以此计算,一颗500公斤级的卫星,发射费用最高可能达到7500万元。根据相关报道,中国卫星发射成本已从2019年的约12万元/公斤降至2023年的约8万元/公斤。蓝箭航天的朱雀三号可回收火箭目标是将成本降至每公斤2万元量级。 火箭运力和发射频次差距极大。一个GW级的数据中心可能需要数万吨的硬件,依靠当前单次十吨级至百吨级的运力,需要成百上千次发射,这在时间和经济上都是巨大挑战,因此需要大力发展如SpaceX星舰这类重型、超大运力火箭,而目前中美在重型火箭的现役运力上仍存在数量级差距(约4-6倍),直接制约了单次发射的载荷规模,影响了太空数据中心快速、规模化部署的进程。 SpaceX的猎鹰9号一次性运力可达到22.8吨,重型猎鹰则达到63.8吨,在研的星舰目标运力为100-250吨。与之相比,国内现役主力火箭长征七号低轨运力为13.5-14吨,民营商业火箭中已成功入轨的型号(如引力一号)最大运力为6.5吨,规划运力最高的型号(如朱雀三号)也仅约20吨。中国重型运载火箭长征九号的一级重复使用构型预计在2030年首飞,而两级完全重复使用构型则计划2033-2035年首飞,目标低轨运力为150吨,届时与星舰等国际重型火箭运力相当。 2025年,SpaceX发射次数达到170次(含5次星舰试飞),占美国总轨道发射次数的 $85\%$ ,其中123次用于部署星链卫星,送入超3000颗,入轨质量预计接近甚至可能超过2024年所有国家和公司送入太空的总质量。而我国国家队中国航天全年完成73次发射任务,民营商业航天公司如星河动力、中科宇航、蓝箭航天、天兵科技等均为个位数,与SpaceX存在较大差距。 表 3 2025 年我国航天企业发射与 SpaceX 对比 <table><tr><td>企业</td><td>发射次数</td><td>火箭型号</td><td>入轨卫星数量</td><td>合计入轨质量</td></tr><tr><td>SpaceX</td><td>170</td><td>猎鹰9号165次、星舰5次</td><td>3190颗</td><td>2200-2400吨</td></tr><tr><td>中国航天科技集团</td><td>73</td><td>长征系列69次、捷龙三号4次</td><td>超300颗</td><td>未披露</td></tr><tr><td>航天科工</td><td>3</td><td>快舟系列</td><td>未披露</td><td>未披露</td></tr><tr><td>星河动力</td><td>6</td><td>谷神星一号,成功5次</td><td>27颗</td><td>1吨</td></tr><tr><td>中科宇航</td><td>5</td><td>力箭一号</td><td>27颗</td><td>6吨</td></tr><tr><td>蓝箭航天</td><td>3</td><td>朱雀二号改进型+朱雀三号,失败1次</td><td>6颗</td><td>近1吨</td></tr><tr><td>东方空间</td><td>1</td><td>引力一号</td><td>3颗</td><td>500公斤</td></tr><tr><td>星际荣耀</td><td>1</td><td>双曲线一号</td><td>1颗</td><td>100公斤</td></tr></table> 资料来源:腾讯网等,深企投产业研究院整理。 我国可回收火箭实验进入密集发射期。能够实现火箭回收技术突破,是我国商业航天企业追赶SpaceX的关键所在。在可回收运载火箭研制方面,国内包括中国航天的长征十二号甲、航天科工的快舟六号、蓝箭航天的朱雀三号、星河动力的智神星一号、天兵科技的天龙 三号、星际荣耀的双曲线三号、东方空间的引力二号、箭元科技的元行者一号、千亿航天的宇宙猎人号、深蓝航天的星云一号。2025年12月,朱雀三号、长征十二号甲相继进行回收实验首飞,均实现二级入轨,一级回收未能成功,但验证了大量的火箭重复使用技术。预计2026年我国将迎来可回收火箭实验的密集发射期,有望加快追赶SpaceX,也为2030年后太空算力构建提供运力基础。 # 02 # 中美太空算力布局进展 中美两国是当前太空算力与太空数据中心的主要引领者,已形成两种截然不同的发展路径。美国由于地面数据中心面临严峻的能源与散热资源约束,其科技巨头对太空算力商业化的需求更为迫切,凭借在商业航天运力方面的显著优势,加速推进在轨计算验证与星座部署,有望在短期内实现技术原型和早期商业化应用的突破。中国则采用政府与顶尖研究所协同引领、工程化推进的模式,由国家级实验室和顶尖高校牵头,以重大科技专项为牵引,分阶段推动太空计算星座组网,强调技术自主可控、天地一体化架构与长期战略支撑能力。 # 一、美国太空算力研发布局进展 美国在太空算力领域已形成以科技巨头为主导、依托成熟商业航天和科技产业生态的差异化发展路径。SpaceX、Starcloud、谷歌、亚马逊、英伟达等企业凭借各自核心能力,从单点技术验证、轨道验证到进入提供商业化服务初期阶段,正在定义未来太空算力的商业标准。 # (一)SpaceX SpaceX凭借其可复用火箭能力和星链(Starlink)低轨星座,正在探索从通信服务向天基计算基础设施的战略延伸,其最有可能构建卫星平台——火箭发射——星座组网——算力服务的太空算力生态闭环。SpaceX计划于2026年推出的StarlinkV3卫星平台,具备高功率、激光链路与GPU级算力承载能力,单星质量增至1.5-1.8吨,通信容量预计高达1Tbps,是V2mini版本卫星的10-20倍,而依托下一代星舰(超重型火箭)的运力,每艘星舰可一次性部署50-60颗V3卫星。 2025年11月,马斯克表示,AI算力未来可能需要200至300吉 瓦甚至接近1太瓦的持续功率输出。作为对比,一座典型的核电站仅能提供约1吉瓦的持续电力,而整个美国的持续总发电量也仅为490吉瓦左右,在地球上建设如此规模的电厂来支持AI是不可能的,因此唯一的出路在于太空。11月4日,马斯克表示将扩大星链V3卫星规模,建设太空数据中心,目标在4-5年通过星舰完成每年100GW的数据中心部署。当前SpaceX已启动V3卫星初样研制,计划2026年底首飞,而2026年1月星舰完成第5次试飞,首次成功回收超重型助推器,为高频次卫星部署奠定基础。 # (二)亚马逊 亚马逊依托其全球领先的云计算业务(AWS)进行战略延伸,并通过与蓝色起源公司协同,有望形成类似SpaceX的太空算力服务体系。亚马逊的卫星互联网星座计划柯伊伯(Project Kuiper)于2020年获批,一期规模为3232颗卫星,借助创始人贝索斯旗下的商业航天公司蓝色起源(Blue Origin)进行发射。截止2025年11月,蓝色起源完成6次发射任务,入轨卫星总数达到153颗,且在2025年11月14日成功实现一子级火箭海上垂直着陆回收,成为继SpaceX之后全球第二家完成火箭回收的商业火箭公司。同月,亚马逊正式将柯伊伯星座计划改名为“亚马逊Leo”,明确其核心是要把AWS云搬到轨道上,意味着未来Leo星座卫星有望搭载计算模块,批量组网后通过星间激光通信完成大规模太空算力部署,加速太空数据中心与AI云服务深度整合,实现云服务上星。 # (三)StarCloud 美国初创公司Starcloud于2024年成立,定位为太空算力服务商,并获得英伟达支持。2025年11月2日,Starcloud通过SpaceX 的猎鹰9号火箭,成功发射其首颗试验卫星Starcloud-1,将首个搭载H100芯片的太空AI服务器送入轨道,展开为期三年的测试任务。在轨期间,该卫星将接收来自美国Capella公司运营的合成孔径雷达(SAR)地球观测卫星群的数据,实时处理这些数据,并将信息传回地球,且运行谷歌Gemma大语言模型等复杂任务。 Starcloud-2任务计划于2026年发射,将搭载英伟达新一代Blackwell GPU和多个H100,提供7KW计算能力,并开始为地球观测卫星运营商和美国国防部等客户提供商业服务。2027年将发射一颗功率更大的100千瓦卫星。Starcloud的目标是到2030年代初,在太空中建设一个40兆瓦的数据中心,并使数据处理成本与地面持平;远期构想是建设由4平方公里太阳能电池阵供电的5GW“太空超级算力工厂”。 # (四)英伟达 英伟达的定位是关键算力硬件提供商和生态推动者,因此也积极进行技术验证其商用AI芯片在太空舱经营应用的可能性。2020年,英伟达与欧洲航天局(ESA)合作,启动“GPU4S”项目(GPU for Space),在地面测试验证英伟达商用GPU(如Jetson系列)在太空辐射环境下的长期稳定运行能力,为未来在轨应用奠定基础。2021年起,其Jetson边缘计算平台被用于国际空间站及多颗商业卫星,开展在轨图像推理、降噪、分类等边缘AI任务,实现商业化落地。2025年,英伟达通过其Inception计划与初创公司Starcloud合作,首颗试验卫星Starcloud-1是人类首次将数据中心级GPU(算力2000TFLOPS)送入太空,其算力是此前所有太空计算机的上百倍。 # (五)谷歌 谷歌的布局是其核心云计算与AI软件生态向轨道空间的延伸。谷歌在2025年11月5日宣布启动“捕日者计划”,与卫星图像公司Planet Labs合作,计划在2027年初发射两颗搭载Trillium代TPUAI芯片的原型卫星,目标是验证TPU在太空极端环境(辐射、真空)下的运行能力、分布式学习的可行性,以及构建短距高速星间通信网络的可行性。项目长期构想是构建一个由81颗卫星组成的分布式AI计算集群,这些卫星在太空中以“超短距编队飞行”(控制在大约1公里半径内)的方式协同工作,通过自由空间光通信(FSO)实现高达TB级的星间聚合带宽。 谷歌也首次公开了其TPU芯片辐射耐受性测试结果。传统观念认为太空需要昂贵的抗辐射加固芯片,但这会牺牲算力性能。谷歌的Trillium TPU在67MeV质子束下的辐射测试结果,表明在适当屏蔽下,商用AI芯片可承受相当于5年低地球轨道(LEO)任务的辐射总量,为在轨运行的可靠性提供了数据支撑。因此直接将高性能商用AI芯片送入太空在技术上是完全可行的。 # 二、中国太空算力研发布局进展 不同于美国以科技巨头主导的商业化路径,我国太空算力及太空数据中心的发展呈现出政府牵头、产业协同、快速推进的特点,由国家级实验室(如之江实验室)、科研机构和地方政府(如北京、烟台、无锡等)强力引领,组建创新联合体,系统性整合从芯片、载荷、卫星平台、火箭发射到运营应用全产业链,且多由地方国资参股或控股的公司作为太空计算星座的投资运营主体,目前处于体系化快速推进阶段。 2019年起,我国科研机构开始探索太空智能计算,主要机构包括中国科学院计算技术研究所、武汉大学、北京邮电大学、之江实验 室等,同时地方政府及商业航天企业积极参与,当前形成之江实验室牵头的“三体计算星座”、国科宇航牵头的“星算计划”以及北京星辰未来空间技术研究院牵头的晨昏轨道GW太空数据中心三个太空算力建设计划。 # (一)中国科学院计算技术研究所 中国科学院计算技术研究所于2019年启动星载AI底座研究,由刘垚圻等牵头,2022年12月,单机版极光星载智能计算机(使用寒武纪AI芯片,算力32TOPS)搭载长光卫星成功发射,实现在轨验证,2023年率先实现了100TOPS级星载算力,采用全体系国产化核心元器件和高可靠容错架构,为天基大模型运行奠定了自主可控的硬件基础。2024年2月,该所研制的星载智能计算机载荷系统(算力100TOPS)搭载“东方慧眼高分01星”成功发射入轨。2024年底,计算所联合北京智源人工智能研究院、武汉大学,研制出天基大模型JigonGPT,通过12轮次的地面站与卫星之间的断续上传,在“东方慧眼高分01星”上完成大模型上注与在轨部署。目前星载智能计算机由中科天算公司进行商业化,形成极光1000、极光2000以及极光5000三个系列,最新星载智能计算机已完成地面验证,算力达到3000 TOPS,为国内外目前公开的最高水平。 # (二)武汉大学 武汉大学在星载AI领域主要以李德仁院士、王密教授等牵头,与烟台市政府战略合作,围绕“东方慧眼”智能遥感星座开展系统布局,计划在2030年完成252颗卫星在轨,其中包括144颗高分辨卫星,100颗雷达卫星以及4颗高光谱卫星等,由烟台国资参股的东方星链时空智能(山东)技术发展有限公司作为投资、建设、运营主体。 2023年1月15日,武汉大学牵头研制的珞珈三号01星成功发射,其作为“东方慧眼”星座工程首颗实验验证卫星,基于高性能GPU构建星上智能处理单元,具备实时高精度定位、兴趣区域智能筛选、信息智能提取和智能高效压缩等功能。珞珈三号01星最高传输速度可达2Gb/分钟,实现了8分钟星地互联的B2C应用服务。卫星在轨可进行云检测、目标检测、动目标跟踪、场景分类、变化检测等智能处理,目标检测精度和动目标跟踪精度能满足大部分实时智能分析应用需求。2024年2月,东方慧眼高分01星发射成功,2024年底实现了大模型上注,首次使卫星具备大模型能力。2025年11月,武汉大学与烟台市政府启动“东方慧眼”星座二期工程、高分宽幅卫星项目。 # (三)之江实验室 之江实验室是由浙江省主导举办,浙江大学等高校提供支撑的新型研发机构,已纳入国家实验室体系。2024年11月,之江实验室牵头提出建设“三体计算星座”,计划在2030年前发射1000颗卫星,星座建成后算力将达到1000POPS(每秒百亿亿次浮点运算),成为我国首个提出的太空计算卫星星座。2025年5月14日,“三体计算星座”首批12颗计算卫星成功发射(同时也是国星宇航“星算计划”的首批卫星),最高单星算力达744TOPS,星间激光通信速率最大可达100Gbps,12颗卫星互联后具备5POPS计算能力和30TB存储容量。“三体计算星座”由之江实验室负责研发核心的太空计算软硬件及天基AI模型,整合了国星宇航(卫星制造)、中电科普天科技(卫星通信及微波星地收发)、氦星光联(星地/星间激光通信)、忆芯科技(AI算力芯片)等产业链企业。 # (四)国星宇航 成都国星宇航科技股份有限公司早期接受成都国资基金价值投资,当前引入多家国资基金,其在星座计划中主要是作为卫星研制总体单位,本身并不直接负责投资运营。2024年11月,国星宇航发布“星算计划”,将由2800颗算力卫星组网,同时将与地面超过100个算力中心互联互通,构建覆盖全球的天地一体化算力网络。除了与之江实验室合作之外,2025年7月国星宇航与无锡梁溪区政府合作推出“梁溪星座”,作为“星算计划”的组成部分,建设一个由12颗智算卫星组成的太空算力星座,所有卫星均采用3D打印增材制造技术,完成组网后,星座总算力不低于20POPS。“梁溪星座”由无锡市星算科技有限公司负责投资运营,该公司由无锡梁溪国资与国星宇航合资,并于2025年12月启动招标,国星宇航以4.45亿元中标,需交付12颗卫星并完成在轨测试。 # (六)北京邮电大学 2021年,北京邮电大学与长沙天仪空间科技股份有限公司合作发起“天算星座”计划,由北京邮电大学作为技术牵头单位,天仪空间作为卫星研制单位。天算星座定位为开放开源的空天计算在轨试验平台。2023年1月15日,“天算星座”的验证星北邮一号成功发射,部署树莓派4B和华为AI开发者套件(Atlas200DK)两种计算设备,开展星载AI技术试验。2025年5月,“天算星座”二期首批卫星“北邮二号”与“北邮三号”成功发射,陆续开展星间大容量激光通信、星载激光通信载荷速率动态调谐、基于卫星物联网平台的星地控制协同等技术试验。 # (七)北京星辰未来空间技术研究院 2025年11月27日,北京市科学技术委员会等组织召开太空数 据中心建设工作推进会,宣布拟在700-800公里晨昏轨道建设运营超过千兆瓦(GW)功率的集中式大型数据中心系统,以实现将大规模AI算力搬上太空。同时,由北京市科委、中关村管委会指导,北京星辰未来空间技术研究院及北京轨道辰光科技有限公司牵头,联合24家单位成立“太空数据中心创新联合体”。北京星辰未来空间技术研究院由环宇基金会、中关村科服公司、中关村科学城公司和中科星图4家单位发起设立,而北京轨道辰光科技有限公司则是其控股公司,作为太空AI星座运营商。数据中心建设分为三个阶段:2025年至2027年,突破能源与散热等关键技术,迭代研制试验星,建设一期算力星座;2028年至2030年,突破在轨组装建造等关键技术,降低建设与运营成本,建设二期算力星座;2031年至2035年,卫星大规模批量生产并组网发射,在轨对接建成大规模太空数据中心。 # 03 # 发展瓶颈与突破路径 太空算力的宏伟前景,建立在突破一系列严峻技术与工程挑战的基础之上。在跨越发射成本与运载能力的门槛之后,仍需攻克太空发电与能源系统、高可靠材料与元器件、高效储能、先进热管理、高速通信、在轨运维、空间安全防护以及轨道资源国际竞争等关键难题。然而,从工程与技术角度看,这些挑战大多已有明确的应对策略和可行的突破路径。 # 一、太空发电与高效能源系统挑战 与地面数据中心依赖电网不同,太空设施必须实现能源的完全自给自足,这要求其发电系统在极端太空环境下,实现远超传统航天器的高功率、高效率、高可靠与低成本运行。 卫星发电系统(太阳翼)通常是卫星最重、最昂贵的子系统之一,重量占比可达 $20 - 30\%$ ,其核心为太阳能电池。为最大限度降低发射成本,必须在有限的发射质量内获取最大发电功率,即追求极高的“功率质量比”(W/kg),实现极致的轻量化。这驱动了柔性、超薄光伏电池和轻质可展开结构的技术创新。 短期内,超薄HJT电池被视为大规模商业航天应用最具性价比的方案。当前,高轨通信卫星、空间站等高价值航天任务基本选择柔性多结砷化镓(GaAs)电池,其在太空标准光照条件(AMO)下的转换效率超过 $30\%$ ,抗辐射能力强,寿命可达20年,但其需要使用镓、砷等关键技术且制造工艺复杂,成本极其高昂,每平方米约20-40万元,估算组件采购成本高达约12亿美元/GW,因此无法支撑未来成千上万颗卫星的大规模星座部署。短期内,硅基异质结(HJT)电池被视为大规模商业航天应用最具前景的方案,其成本仅为砷化镓电池的1/6至1/3,且已有研究表明其具有优异的抗辐射能力,超薄(60-110μm)HJT电池在遭受辐射损伤后,可利用太空光热效应恢复 97%以上初始性能,其低温制备工艺易于制成柔性薄片,与新一代卷展式太阳能阵列结构高度适配。 从远期看,钙钛矿/晶硅叠层电池被普遍认为是终极高效解决方案。它结合了钙钛矿材料高效率、极轻质、低成本溶液法制备的优势,以及晶硅底层的稳定性,理论效率上限远超单结电池。近日,苏州大学张晓宏教授团队成功研发出柔性晶硅钙钛矿叠层太阳能电池,该成果解决了叠层柔性电池在效率与稳定性方面的核心难题,为航天器和太空数据中心长期运行提供了电力保障,相关研究成果在国际顶级学术期刊《自然》上发表。不过,钙钛矿/晶硅叠层电池在太空极端环境(紫外辐射、真空、热循环)下的长期稳定性、封装技术等工程难题尚未完全攻克,预计仍需3-5年以上的研发与在轨验证周期。 为支撑GW级算力中心,未来需要部署平方公里级的超大型太阳能阵列。例如,Starcloud的5GW太空数据中心概念方案规划的阵列规模达 $4\mathrm{km}\times 4\mathrm{km}$ ( $16\mathrm{km}^2$ )。如此巨型结构,其设计、制造、发射和在轨组装(AIO)的技术难度与成本呈非线性跃升,远超线性增长关系。此类设施无法一次性发射,必须依赖在轨自动交会对接、空间机器人装配等技术进行模块化搭建,这目前仍是核心技术攻关领域,工程成熟度和可靠性尚未形成体系化标准,需通过地面试验与在轨验证持续迭代。 # 二、高可靠材料与元器件挑战 与地面数据中心可控的机房环境截然不同,太空中的极端温度循环、高能粒子辐射、超高真空与微重力等复合因素,对构成数据中心的所有材料与电子元器件的长期可靠性构成了重大挑战。任何微小的材料退化或器件失效,在无法进行经济性在轨维修的约束下,都可能演变为任务失败的关键单点故障。 ——极端温度循环挑战。在近地轨道,航天器表面在阳光直射时温度可超过 $120^{\circ}\mathrm{C}$ ,进入地球阴影区则骤降至 $-180^{\circ}\mathrm{C}$ 甚至更低,冷热交变幅度达 $300^{\circ}\mathrm{C}$ 以上。这种剧烈的冷热交变会导致材料因热胀冷缩系数不匹配而产生内应力,引发疲劳、微裂纹甚至断裂。对于电子设备,焊点(如BGA封装)在数千次温度循环后容易发生热疲劳开裂,导致电气连接失效,具体寿命取决于封装类型与温变范围;密封材料也可能因反复伸缩丧失密封性能。商用芯片通常仅支持 $0^{\circ}\mathrm{C}$ 至 $+70^{\circ}\mathrm{C}$ 工作范围,而航天应用要求电子设备在更宽温区内稳定运行,这对热控系统维持允许工作温区的能力提出了极高要求。 ——高能粒子辐射挑战。地球磁场未能完全屏蔽的银河宇宙射线、太阳高能粒子以及辐射带俘获粒子,持续轰击着轨道上的航天器。即使在有 $10\mathrm{mm}$ 铝当量屏蔽的低地球轨道(LEO),电子器件每年承受的辐射剂量仍可达约150 rad(Si),在5年任务周期内累积剂量达750 rad(Si)。长期辐射累积会导致半导体器件(如MOSFET)的栅氧化层产生电荷陷阱,引起阈值电压漂移、漏电流增加、驱动能力下降,最终功能退化。更具突发性威胁的是单粒子效应(SEE),单个高能重离子或质子穿透芯片敏感节点,可能造成存储单元位翻转(SEU)、电路闩锁(SEL)或信号瞬态(SET),在AI推理等高并发计算过程中引发数据错误甚至系统崩溃。为应对辐射挑战,传统航天任务普遍采用抗辐射加固芯片,或通过工艺/设计手段提升器件耐受性。近年来,部分机构在短期、低轨道、非关键任务中尝试使用高性能商用AI芯片(如NVIDIA Jetson系列),并辅以冗余架构、错误校正码(EDAC)等系统级容错措施,也取得了相应进展。 # 三、储能技术挑战 通过部署于晨昏太阳同步轨道,太阳能发电阵列可实现超过 $95\%$ 的容量因子,但卫星每次进入地球阴影区(最长约35分钟)时,数据中心将完全失去外部电力输入。此时,储能系统必须无缝接管,为数十至数百兆瓦的计算负载提供持续、稳定的电力,确保关键任务不中断。 太空算力对储能系统提出了极为严苛的技术要求,需要满足高容量、高可靠性、长循环寿命、高能量密度以及小体积质量等多重指标。在太空极端环境下,储能系统必须能够在-180°C至120°C的极端温度范围内稳定工作,同时具备抗空间辐射、轻量化等特性。 目前,低温型锂离子蓄电池已成为太空储能的优先选择方案。这类电池通过优化电解液配方,采用低熔点共溶剂和无碳酸乙烯酯电解液设计,显著提升了低温性能。然而,要真正突破能量密度、寿命和环境适应性的技术天花板,固态电池技术被视为关键突破口。固态电池不含可燃、可挥发的液态电解质,在真空环境下不存在泄漏与气体析出问题,其本征安全性显著高于液态体系。NASA已将全固态电池列为未来航空与航天能源存储技术的重要方向。随着固态电池产业化进程加速,预计2030年后固态电池有望为太空算力的储能系统提供终极解决方案,支撑卫星星座、深空探测等太空任务的长期稳定运行。 # 四、热管理技术挑战 太空数据中心的热管理核心挑战在于,如何在近乎真空、仅能依赖热辐射散热的环境中,高效排出远超传统航天器的废热。由于缺乏对流与传导,散热效率完全受限于斯特藩-玻尔兹曼定律,即辐射功率与温度四次方和辐射面积成正比。 当前通信或遥感卫星平台功耗通常为 $1 - 10 \mathrm{~kW}$ ,而设想中的高密度在轨计算节点(如用于 AI 推理或科学模拟)单星功耗可能达数十至数百 KW,甚至未来星座级系统向兆瓦(MW)迈进。这意味着废热 排放需求提升10-100倍以上,对热控系统的散热能力、质量效率和可靠性提出前所未有的要求。 与地面不同,太空热管理通常采用“主动+被动”混合架构,主动热控技术通过外部能量驱动,控温能力强、灵活性高,用于高热流密度区域的热量收集与输运,如采用泵驱两相流体回路+大型可展开辐射器,将芯片废热导至大型辐射器进行散热;被动热控通过材料创新实现突破,如多层隔热材料MLI、高/低发射率涂层、热控百叶窗等仍广泛用于温度稳定和局部热隔离。 面向未来太空算力设施,热管理系统必须突破发射包络与质量限制。根据测算,针对1GW太空算力集群,所需散热面积约为240万平方米(即2.4平方公里),一个承载ExaFLOP级算力的超大规模轨道数据中心,可能需要数平方公里的展开散热面积。尽管提高散热器工作温度或优化热管理可减小面积需求,但总体规模仍极为庞大。为降低发射成本,热管理系统必须追求极高的功率质量比,实现材料工艺创新,必须在有限的发射质量内,通过精巧的折叠-展开机构,实现最大的在轨散热面积。 # 五、高速通信挑战 太空算力对通信系统的核心要求是高带宽、低延迟与大规模协同能力。作为参照,地面超算中心内部互联已实现每秒TB级的数据吞吐,而当前卫星通信能力与此存在数量级差距。对于数千颗卫星组成的超大规模计算星座,星间链路的总带宽与网络延迟成为制约分布式计算(如协同AI训练)效能的首要瓶颈。 传统射频通信(如Ka波段)单链路速率通常为1-10Gbps,在近地轨道(LEO)可实现约5-40毫秒的端到端延迟,但仍难以满足高并发计算任务的需求。相比之下,星间激光通信已实现100Gbps速率 突破,SpaceX星链V3卫星计划将激光通信速率提升至400Gbps。实验室环境下,短距星间激光通信速率甚至达到1.6Tbps以上,但此类成果尚未转化为稳定可靠的在轨工程能力,在大规模组网后,瞄准-捕获-跟踪(PAT)精度、光学系统热稳定性与动态拓扑路由仍是未攻克的工程难题。更具挑战的是激光星地链路,尽管速率潜力巨大,但受云层遮挡、大气湍流等影响,高码率信号难以全天候稳定穿透大气层。目前,实用化系统仍需依赖全球分布的光学地面站,并辅以天气预测与链路切换策略。 短期内,优先发展星间高速激光通信网络,构建太空“数据骨干网”,将数据在轨聚合后,选择最优时机和地面站进行下传,以提升链路利用率和可靠性。中长期,需同步攻克激光星地链路的全天候、高可靠传输技术,并建设全球分布的地面站网络或探索高空平台(如气球、无人机)中继,以增加通信窗口和覆盖,最终形成高速、可靠、低延迟的天地一体化信息网络。 # 六、在轨运维挑战 在航运维的根本目标是确保部署在太空极端环境中的计算设施能够长期、稳定、可靠地运行,并在必要时进行维修、升级和扩展,以维持其经济性和技术先进性。这要求系统在无人值守的严苛太空环境下稳定运行5-15年甚至更长时间,并具备高度的自主性、可维护性与经济可行性。 在地面数据中心,运维人员可以现场检查、更换部件。而在轨环境下,远程诊断和自主恢复是唯一可行的路径,其技术复杂度呈指数级上升。地面控制中心无法实时获取所有传感器细节,天地通信的延迟和有限的带宽也严重制约了实时干预能力。系统必须内置高度的自监测与自诊断能力,能够从海量遥测数据中准确识别故障根源,需要 极其智能的故障预测与健康管理(PHM)系统。 当检测到部分模块失效时,系统不能简单地“停机报警”。它必须能自动启用冷/热备份模块,或动态地将计算任务迁移到其他健康的节点上,保证整体计算服务不中断。这要求底层的硬件架构(如计算、存储、网络)必须是冗余、可重构的,同时上层的任务调度和分布式系统软件必须具备智能的故障恢复逻辑。 面对上述挑战,业界正在探索几种主要的技术路径和运维模式: 1. 高度模块化与冗余设计:这是所有高级运维的基础。将系统设计为可独立更换的标准化模块,并通过系统级冗余(如 N+1 备份)来容忍单点故障,支持在轨“热插拔”。 2. 机器人主导的自主服务:被视为规模化运维的关键。提前在轨道上部署“轨道仓库”存放备件,或由可重复使用的服务航天器(“太空拖船”)携带,通过空间机器人完成绝大部分的检查、更换、装配操作。 3. 依托近地轨道空间站的人工运维:将初期或验证性的太空数据中心模块部署在空间站附近或实验舱内,利用驻站航天员进行定期的检查、维护和升级。这种模式技术风险较低,但扩展性和经济性有限。 4.“哈勃模式”的定期人工维护任务:当问题积累到一定程度后,发射专用载人飞船,派遣航天员及携带备件进行集中维修。这是技术能力最强的体现,但成本最高,周期最长,无法作为常规手段。 5. 智能自主运维系统:结合人工智能与数字孪生技术,构建能够进行预测性维护、自主故障诊断、处理和在轨任务优化的智能系统。例如,通过机器学习模型分析遥测数据预测部件剩余寿命,或自主规划避障机动。 目前,该领域仍处于技术攻关和方案验证的早期阶段,模块化设计是基础,机器人自主操作是关键突破点,而最终的经济可行性则高度依赖于发射成本的大幅下降和自主运维技术的成熟。 # 七、空间安全防护挑战 未来,太空数据中心面临的安全风险主要可归纳为物理碰撞、军事对抗与网络攻击三大类,其威胁源既包括自然存在的空间环境,也涵盖日益加剧的人为活动。 空间碎片碰撞风险:最迫在眉睫的物理威胁。空间碎片是当前最具体、最频繁的物理性风险源。近地轨道中尺寸大于1厘米的碎片已超过百万个,而1厘米以下的微小碎片总数超1亿个,使得轨道环境异常拥挤。低轨巨型星座的大规模快速部署,进一步加剧了太空交通拥堵,显著提升了碰撞概率。一次微小的碎片撞击,足以击穿太阳能电池阵、损坏散热辐射面或精密激光通信终端,导致卫星功能永久性丧失。更严重的是,碰撞可能产生更多碎片,引发连锁反应,危及整个轨道高度的所有航天器,对计划中长期运行的太空数据中心构成生存性威胁。 反卫星武器与军事化对抗风险。虽然“反卫星武器”在产业分析中不常直接提及,但太空设施军事化的趋势及其引发的直接物理摧毁或干扰风险已清晰显现。美国“星盾”(Starlink军用定制版)计划的推进,以及其“金穹”天基导弹防御系统(由数千颗探测/拦截卫星组成)的构想,标志着低轨卫星网络的战略和军事价值已被大国充分认知,近地轨道已成为新的战略疆域和潜在冲突前线。俄乌冲突中,“星链”为乌军提供了关键的抗毁通信能力,保障了前线作战单元的联网与指挥,反向证明了卫星网络在现代战争中的枢纽作用,也必然刺激反制能力的发展。这种来自反卫星导弹的“硬杀伤”威胁, 以及电子干扰、激光致盲等“软杀伤”手段,对太空数据中心的物理生存和信号安全构成了直接挑战。 网络攻击威胁。对卫星测控、数据链路、星载软件系统的网络入侵、干扰或劫持,是另一类关键的非物理威胁。随着人工智能驱动的自主太空操作(如自主避障、故障诊断)成为提升效率的必然选择,系统的软件复杂度和对算法的依赖度剧增,这同时扩大了网络攻击面,引入了新的软件漏洞和算法被攻击的风险。大型星座复杂的星间链路、动态路由协议以及与地面站的频繁交互,都为恶意网络行为提供了潜在入口。太空网络安全已被明确列为尚未健全的全球性规则框架之一,是商业化进程中重要的监管与地缘政治风险源。 # 八、轨道资源与国际协调挑战 太空算力的成功部署不仅取决于技术突破,更在根本上受制于轨道与频谱这两大稀缺战略资源的可获得性,以及规范其使用的国际规则体系。当前,以国际电信联盟(ITU)规则为核心的“先到先得”分配机制,已驱动全球进入“抢频抢轨”的白热化竞争阶段,而面向太空算力等新兴业态的规则存在显著滞后。 国际轨道与频谱资源的分配,主要由国际电信联盟(ITU)的无线电规则所主导,采用“先申请、先占用”原则。该原则意味着,在符合技术协调要求的前提下,谁先成功向ITU申报并完成国际协调,谁就优先获得特定频段和相应轨道位置的使用权。由于卫星频轨资源具有排他性。一旦占用,在卫星寿命结束后,运营方通常会通过发射替代卫星来延续使用权,从而在实践中形成了“先占永得”的局面。 为了防止“纸面占位”,ITU对已申报的卫星网络设置了明确的部署进度要求。根据规则,运营商需在首颗卫星投入使用起的两年内完成至少 $10\%$ 的星座部署,五年内完成 $50\%$ ,并在七年内实现 $100\%$ 的完全部署。另一表述为需在申请后7年内发射第一颗卫星,并在第9、12、14年分别完成总规模的 $10\%$ 、 $50\%$ 、 $100\%$ 。这一时限压力直接转化为企业的发射与组网能力竞赛。 在ITU规则驱动下,近地轨道,特别是300-2000公里高度范围,已成为全球竞争的焦点,已申报星座的拥挤程度远超常人想象。近地轨道可安全容纳的卫星数量存在物理上限。不同研究给出了约6万颗(考虑现有技术条件)到17.5万颗(考虑50公里安全间距)的估算。然而,当前全球各国及企业已向ITU申报的低轨卫星数量,早已超过7万颗,远超理论容量上限。根据申报周期推算,自2024年起,全球已进入以“抢频抢轨”为核心的集中发射期,竞争进入白热化。 太空数据中心的核心产出是数据与算力服务,但其治理框架面临制度性缺位:数据主权层面,在轨数据处理后的管辖权归属、数据跨境流动规则当前全球尚无统一法律与技术标准;物理安全层面,星座密度激增使空间碎片碰撞风险指数级上升,但强制性碎片减缓、清除及责任认定规则仍处草案阶段,缺乏约束力;运维保障层面,长期在轨服务依赖自主交会对接与机器人装配等技术,但相关操作的安全规范、责任划分、事故追责等国际准则尚在萌芽期;网络安全层面,针对卫星网络与太空设施的攻击威胁日益严峻,相应的国际行为规范、威胁情报共享与联合响应机制尚未建立。因此,太空算力商业化不仅取决于技术成熟度,更受制于地缘政治博弈,国际社会能否突破主权壁垒,在资源分配、风险分担、监管协同等维度形成有效治理体系,将直接决定其规模化落地进程。 # 深企投产业研究院 电话:王女士 13168781866 座机:0755-82790019 邮箱:sqtf@sqtf.cn 网址:http://www.sfzf.cn/ 地址:深圳市福田区深南大道本元大厦 7B1 深企投公众号 深企投研究公众号