> **来源:[研报客](https://pc.yanbaoke.cn)** # LLaDA2.1实现技术突破,Gemini3.1Pro树立多模态新标准 一计算机行业周报 # 推荐(维持) 分析师:任春阳 S1050521110006 rency@cfsc.com.cn 行业相对表现 <table><tr><td>表现</td><td>1M</td><td>3M</td><td>12M</td></tr><tr><td>计算机(申万)</td><td>-5.4</td><td>5.5</td><td>3.4</td></tr><tr><td>沪深 300</td><td>0.7</td><td>5.5</td><td>20.6</td></tr></table> 市场表现 资料来源:Wind,华鑫证券研究 # 相关研究 1、《计算机行业周报:字节跳动Seedance2.0 重磅上线,ClaudeOpus4.6发布》2026-02-10 2、《计算机行业点评报告:亚马逊(AMZN.O):AI基础设施与零售网络共振,资本开支周期驱动长期增长》2026-02-08 3、《计算机行业点评报告:苹果(AAPL.0):营收利润双增长,iPhone与服务业务表现亮眼创历史新高》2026-02-05 # 投资要点 ■ 算力:算力租赁价格平稳,扩散语言模型LLaDA2.1实现技术突破 2026年2月,LLaDA2.1扩散语言模型正式发布,含160亿、千亿参数两个版本,其中千亿版在复杂编程测试中实现892Tokens/秒峰值速度。该模型通过三大技术创新破解速度与质量平衡难题,实验证明其在性能和效率上双重提升。 AI应用:Gemini周访问量环比 $+4.31\%$ Gemini3.1Pro树立多模态新标准 2026年2月20日,谷歌DeepMind发布了其下一代旗舰模型Gemini3.1Pro,这一模型在多个领域实现了技术突破,迅速成为人工智能领域的新标杆,尤其在推理能力表现突出。Gemini3.1Pro在ARC-AGI-2测试中取得了77.1%的高分,性能提升至上一代3.0Pro的两倍有余,同时在ARC-AGI-1测试中也接近满分,超越了包括ClaudeOpus4.6和GPT-5.2在内的多个竞争对手。 AI融资动向:WorldLabs完成10亿美元新一轮融资 2026年2月,李飞飞创立的WorldLabs完成10亿美元新一轮融资,AMD、英伟达、Autodesk等参投,Autodesk单独投2亿美元并展开合作,公司此前谈判估值约50亿美元,资金将用于空间智能领域研发。该公司聚焦大型世界模型,旗舰产品Marble可多模态生成高保真3D世界,适用于媒体娱乐、机器人训练等场景。 # 投资建议 2026年2月20日,Anthropic推出了AI驱动的安全工具ClaudeCodeSecurity。该工具通过结合自动化的速度与人工的分析方式,帮助开发者应对AI时代日益严峻的网络安全风险。与仅依赖已知漏洞模式的传统分析工具不同, ClaudeCodeSecurity能够像资深安全工程师一样,理清代码组件的交互与数据流动,从而捕获业务逻辑缺陷、访问控制失效等较为复杂的漏洞。其每项发现都会经过多阶段验证流程,通过充分的举证质证来过滤误报,并提供置信度与严重性评级,以便团队优先处理最关键的问题。目前,该工具已面向企业版和团队版客户开放有限研究预览版,开源维护者 也可申请免费快速访问权限。此次Anthropic新的工具发布代表着AI应用逐步开始融入并重塑企业核心的业务流程,其逐渐从原先的辅助工具转向实际商业化落地。我们认为AI应用的下一阶段是行业深度定制,当前通用大模型正向垂直行业工具渗透,以解决特定痛点。在此过程中,拥有行业数据壁垒的企业将构筑显著优势,它们能够将通用大模型私有化,构建起与业务深度绑定、难以被通用模型复制的Agent。基于此,我们维持对AI应用垂直领域板块的看好。中长期,建议关注加快扩张算力业务的精密零部件龙头迈信林(688685.SH)、新能源业务高增并供货科尔摩根等全球电机巨头的唯科科技(301196.SZ),AI智能文字识别与商业大数据领域巨头的合合信息(688615.SH)、深耕工业AI与软件并长期服务高端装备等领域头部客户的能科科技(603859.SH)。 # 风险提示 1)AI底层技术迭代速度不及预期。2)政策监管及版权风险。3)AI应用落地效果不及预期。4)推荐公司业绩不及预期风险。 重点关注公司及盈利预测 <table><tr><td rowspan="2">公司代码</td><td rowspan="2">名称</td><td rowspan="2">2026-02-25 股价</td><td colspan="3">EPS</td><td colspan="3">PE</td><td rowspan="2">投资评级</td></tr><tr><td>2024</td><td>2025E</td><td>2026E</td><td>2024</td><td>2025E</td><td>2026E</td></tr><tr><td>301196.SZ</td><td>唯科科技</td><td>89.50</td><td>1.76</td><td>2.53</td><td>3.34</td><td>50.85</td><td>35.38</td><td>26.80</td><td>买入</td></tr><tr><td>603859.SH</td><td>能科科技</td><td>47.46</td><td>0.78</td><td>0.96</td><td>1.18</td><td>60.85</td><td>49.44</td><td>40.22</td><td>买入</td></tr><tr><td>688615.SH</td><td>合合信息</td><td>226.00</td><td>4.01</td><td>3.37</td><td>4.11</td><td>56.36</td><td>67.06</td><td>54.99</td><td>买入</td></tr><tr><td>688685.SH</td><td>迈信林</td><td>47.86</td><td>0.31</td><td>1.64</td><td>2.26</td><td>154.39</td><td>29.18</td><td>21.18</td><td>买入</td></tr></table> 资料来源:Wind,华鑫证券研究 # 正文目录 # 1、算力动态:算力租赁价格平稳,扩散语言模型LLADA2.1实现技术突破 4 1.1、Tokens跟踪 4 1.2、数据跟踪:算力租赁价格平稳 5 1.3、产业动态:扩散语言模型LLaDA2.1实现技术突破 5 # 2、AI应用动态:GEMINI周访问量环比 $+4.31\%$ ,GEMINI3.1PRO树立多模态新标准 8 2.1、周流量跟踪:Gemini周访问量环比 $+4.31\%$ 8 2.2、产业动态:百万上下文与低幻觉率兼备,Gemini3.1Pro树立多模态新标准 8 # 3、AI融资动向:WORLDLABS完成10亿美元新一轮融资 12 # 4、投资建议 14 # 5、风险提示 14 # 图表目录 # 图表1:TOKENS规模LEADERBOARD 4 # 图表2:市场份额占据示意 4 # 图表3:上周算力租赁情况 5 # 图表4:论文联合发表示意图 5 # 图表5:BENCHMARK表现对比结果示意图 6 # 图表6:TPS结果对比示意图. 7 # 图表7:2026.2.15-2026.2.21AI相关网站流量 8 # 图表8:GEMINI3.1PRO在ARC-AGI-1测试和ARC-AGI-2测试中的表现 9 # 图表9:GEMINI3.1PRO在APEX-AGENTS智能体任务中的表现 9 # 图表10:GEMINI3.1PRO在多项测试中的表现 10 # 图表11:GEMINI3.1PRO在AA-OMNISCENCE幻觉率评估中的表现 10 # 图表 12: 上周 AI 初创公司融资动态 ..... 12 # 图表13:重点关注公司及盈利预测 14 # 1、算力动态:算力租赁价格平稳,扩散语言模型LLaDA2.1实现技术突破 # 1.1、Tokens 跟踪 根据OpenRouter公开数据,2026年2月16日至2026年2月22日,周度token消耗量有所上升,调用量为14T,环比上周 $7.69\%$ 。在tokens规模leaderboard前五名中,minimax旗下的MiniMax2.5以2.57Ttokens位居榜首;moonshotai的KimiK2.5以1.04T位列第二;Google的Gemini3FlashPreview以859Btokens位居第三;z-ai的GLM以803B排第四;Deepseek的DeepseekV3.2以745Btokens位列第五。 从市场份额维度来看,Google以825Btokens占据 $18.9\%$ 的份额,稳居首位;Anthropic以644B占据 $14.8\%$ ,位列第二;Minimax、OpenAI、z-AI则分别以632B、412B、371Btokens,对应占据 $14.5\%$ 、 $9.5\%$ 、 $8.5\%$ 的市场份额。 图表 1: tokens 规模 leaderboard 资料来源:OpenRouter,华鑫证券研究 图表2:市场份额占据示意 资料来源:OpenRouter,华鑫证券研究 # 1.2、数据跟踪:算力租赁价格平稳 上周算力租赁价格平稳。具体来看,显卡配置为A100-40G中,腾讯云16核+96G价格为28.64元/时,阿里云12核+94GiB价格为31.58元/时;A800-80G价格为7.50元/时。 图表3:上周算力租赁情况 图表4:论文联合发表示意图 <table><tr><td>显卡配置</td><td>CPU</td><td>内存</td><td>磁盘大小(G)</td><td>平台名称</td><td>价格(每小时)</td><td>价格环比上周</td></tr><tr><td rowspan="2">A100-40G</td><td>16</td><td>96</td><td>可自定,额外收费</td><td>腾讯云</td><td>28.64/元</td><td>0.00%</td></tr><tr><td>12核</td><td>94G</td><td>可自定,额外收费</td><td>阿里云</td><td>31.58/元</td><td>0.00%</td></tr><tr><td>A100-80G</td><td>13</td><td>128</td><td>系统盘:20G数据盘:50GB</td><td>恒源云</td><td>/</td><td>0.00%</td></tr><tr><td>A800-80G</td><td>16</td><td>256</td><td>系统盘:20G数据盘:50GB</td><td>恒源云</td><td>7.50/元</td><td>0.00%</td></tr></table> 资料来源:腾讯云,阿里云,恒源云,华鑫证券研究 # 1.3、产业动态:扩散语言模型LLaDA2.1实现技术突破 2026年2月,扩散语言模型LLaDA2.1在HuggingFace平台正式发布,本次发布的LLaDA2.1包含160亿参数的Mini版本与1000亿参数的Flash版本,其中1000亿参数版本在HumanEval+复杂编程基准测试中实现892Tokens/秒的峰值推理速度,突破了扩散语言模型的规模天花板,为大语言模型发展提供了自回归架构之外的全新可行路径。 # ANT GROUP INCLUSIONAI # LLaDA2.1: Speeding Up Text Diffusion via Token Editing Tiwei Bie $^{1}$ , Maosong Cao $^{1}$ , Xiang Cao $^{1}$ , Bingsen Chen $^{1}$ , Fuyuan Chen $^{1}$ , Kun Chen $^{1}$ , Lun Du $^{1}$ , Daozhuo Feng $^{1}$ , Haibo Feng $^{1,4}$ , Mingliang Gong $^{1}$ , Zhuocheng Gong $^{1}$ , Yanmei Gu $^{1}$ , Jian Guan $^{1}$ , Kaiyuan Guan $^{1}$ , Hongliang He $^{1,3}$ , Zenan Huang $^{1}$ , Juyong Jiang $^{1}$ , Zhonghui Jiang $^{1}$ , Zhenzhong Lan $^{1,3,\dagger}$ , Chengxi Li $^{1}$ , Jianguo Li $^{1,\dagger}$ , Zehuan Li $^{1}$ , Huabin Liu $^{1}$ , Lin Liu $^{1}$ , Guoshan Lu $^{1}$ , Yuan Lu $^{1}$ , Yuxin Ma $^{1}$ , Xingyu Mou $^{1}$ , Zhenxuan Pan $^{1}$ , Kaida Qiu $^{1}$ , Yuji Ren $^{1}$ , Jianfeng Tan $^{1}$ , Yiding Tian $^{1}$ , Zian Wang $^{1}$ , Lanning Wei $^{1}$ , Tao Wu $^{1}$ , Yipeng Xing $^{1}$ , Wentao Ye $^{1,2}$ , Liangyu Zha $^{1}$ , Tianze Zhang $^{1}$ , Xiaolu Zhang $^{1}$ , Junbo Zhao $^{1,2,\dagger}$ , Da Zheng $^{1,\dagger}$ , Hao Zhong $^{1,2}$ , Wanli Zhong $^{1,4}$ , Jun Zhou $^{1}$ , Junlin Zhou $^{1}$ , Liwang Zhu $^{1}$ , Muzhi Zhu $^{1,2}$ , Yihong Zhuang $^{1}$ <sup>1</sup>Ant Group, <sup>2</sup>Zhejiang University, <sup>3</sup>Westlake University, <sup>4</sup>Southern University of Science and Technology 资料来源:机器之心,华鑫证券研究 当前主流大语言模型均采用自回归架构,遵循逐Token串行生成的模式,虽具备稳定性优势,但存在推理速度慢、计算成本高、生成错误无法回溯修正等问题,其串行解码的本质难以实现效率的量级提升,成为规模化应用的重要制约。 LLaDA2.1的核心技术突破体现在三大方面。其一,创新提出可纠错编辑机制(ECE),颠覆了自回归模型的生成模式,让模型实现类人类的“起草-编辑”生成逻辑:先以极高速度并行生成内容草稿,再对草稿进行全局重新评估与智能修正,可及时回溯修改错误、替换更优表达,有效解决了并行解码中的局部不一致性问题,同时将时延与生成质量的刚性权衡转化为可灵活配置的空间,在不牺牲质量的前提下大幅提升生成效率。其二,首创单模型双模式设计,支持极速模式(SpeedyMode)与质量模式(QualityMode)灵活切换,用户仅需一条配置指令即可根据场景需求选择:极速模式通过降低初始生成置信度阈值实现快速产出,适配代码生成、头脑风暴等对效率要求较高的场景;质量模式以保守策略提升初始生成质量,减少修正需求,适用于正式文档、学术写作、高精度任务等场景,相较于此前需开发多个加速版本的模式,大幅降低了用户选择与模型管理成本。其三,首次将强化学习成功应用于百亿参数级扩散模型,针对序列级对数似然难以精确计算的行业难题,提出基于ELBO的块级策略优化方法(EBPO),专门适配可编辑解码结构,让模型在提升速度的同时,更好地理解人类指令、对齐人类意图,进一步增强了模型的实用性与可靠性。 图表5:Benchmark表现对比结果示意图 Table 1: Benchmark Performance of LLaDA2.1-flash, comparing with several baseline models. For diffusion language model, we report its scores across each benchmark along with its TPF (tokens per forward); for AR model, we report its scores only, as its TPF is inherently equal to 1. <table><tr><td>Benchmark</td><td>Qwen3-30B-A3B-Inst-2507 (Score)</td><td>Ling-flash-2.0 (Score)</td><td colspan="2">LLaDA2.0-flash (Score | TPF)</td><td colspan="2">LLaDA2.1-flash (S Mode) (Score | TPF)</td><td colspan="2">LLaDA2.1-flash (Q Mode) (Score | TPF)</td></tr><tr><td>Average</td><td>73.09</td><td>71.52</td><td>72.43</td><td>3.08</td><td>72.34</td><td>5.93</td><td>73.54</td><td>3.64</td></tr><tr><td colspan="9">Knowledge</td></tr><tr><td>GPQA</td><td>54.14</td><td>69.16</td><td>62.31</td><td>3.29</td><td>66.67</td><td>3.95</td><td>67.30</td><td>2.37</td></tr><tr><td>MMLU-Pro</td><td>74.21</td><td>77.55</td><td>74.79</td><td>2.36</td><td>75.31</td><td>4.43</td><td>76.59</td><td>2.62</td></tr><tr><td>C-EVAL</td><td>88.12</td><td>87.54</td><td>85.21</td><td>1.90</td><td>86.93</td><td>2.71</td><td>86.71</td><td>1.75</td></tr><tr><td>PHYBench</td><td>29.84</td><td>27.67</td><td>30.06</td><td>2.70</td><td>26.04</td><td>4.10</td><td>28.23</td><td>2.66</td></tr><tr><td>TriviaQA</td><td>65.61</td><td>69.76</td><td>66.88</td><td>1.94</td><td>72.55</td><td>4.30</td><td>72.93</td><td>2.92</td></tr><tr><td colspan="9">Reasoning</td></tr><tr><td>BIG-Bench Hard</td><td>85.54</td><td>89.36</td><td>86.75</td><td>2.66</td><td>87.82</td><td>5.61</td><td>88.69</td><td>3.28</td></tr><tr><td>BIG-Bench Extra Hard</td><td>37.80</td><td>23.24</td><td>27.86</td><td>4.60</td><td>33.51</td><td>5.04</td><td>35.77</td><td>3.17</td></tr><tr><td>bbh-zh</td><td>86.18</td><td>75.09</td><td>87.52</td><td>3.21</td><td>82.55</td><td>5.78</td><td>86.23</td><td>3.77</td></tr><tr><td>MuSR</td><td>79.15</td><td>82.72</td><td>82.72</td><td>1.70</td><td>80.10</td><td>2.90</td><td>79.84</td><td>1.85</td></tr><tr><td>ZebraLogic</td><td>90.97</td><td>87.60</td><td>82.30</td><td>2.74</td><td>84.20</td><td>5.80</td><td>88.90</td><td>3.26</td></tr><tr><td>PrOntoQA</td><td>97.12</td><td>97.88</td><td>96.50</td><td>2.64</td><td>95.00</td><td>9.23</td><td>97.00</td><td>5.73</td></tr><tr><td>PIQA</td><td>91.57</td><td>91.95</td><td>96.50</td><td>1.43</td><td>92.44</td><td>2.38</td><td>92.17</td><td>1.44</td></tr><tr><td>OCNLI</td><td>71.59</td><td>65.36</td><td>71.63</td><td>1.09</td><td>72.17</td><td>1.83</td><td>72.75</td><td>1.32</td></tr><tr><td>HellaSwag</td><td>86.31</td><td>81.59</td><td>84.97</td><td>1.26</td><td>85.60</td><td>2.31</td><td>85.31</td><td>1.51</td></tr><tr><td>KOR-Bench</td><td>69.2</td><td>69.44</td><td>63.04</td><td>3.44</td><td>62.80</td><td>4.97</td><td>65.12</td><td>2.77</td></tr><tr><td>DROP</td><td>87.57</td><td>88.32</td><td>87.90</td><td>2.26</td><td>87.55</td><td>5.40</td><td>87.86</td><td>2.53</td></tr><tr><td>SQuAD 2.0</td><td>89.51</td><td>81.32</td><td>90.00</td><td>3.10</td><td>90.65</td><td>5.01</td><td>90.80</td><td>3.90</td></tr><tr><td colspan="9">Coding</td></tr><tr><td>LiveCodeBench</td><td>46.42</td><td>52.48</td><td>42.51</td><td>4.23</td><td>44.05</td><td>6.48</td><td>45.37</td><td>3.80</td></tr><tr><td>CRUXEval-O</td><td>86.75</td><td>82.75</td><td>85.12</td><td>3.21</td><td>85.25</td><td>6.54</td><td>87.50</td><td>3.80</td></tr><tr><td>MBPP+</td><td>78.21</td><td>80.89</td><td>79.37</td><td>4.02</td><td>76.72</td><td>10.43</td><td>77.25</td><td>5.96</td></tr><tr><td>HumanEval+</td><td>87.88</td><td>87.58</td><td>88.41</td><td>6.45</td><td>89.63</td><td>13.81</td><td>89.63</td><td>9.18</td></tr><tr><td>MultiPL-E</td><td>70.67</td><td>65.76</td><td>74.87</td><td>3.14</td><td>70.89</td><td>7.77</td><td>73.34</td><td>4.33</td></tr><tr><td>BigIntCodeBench-Full</td><td>41.49</td><td>40.70</td><td>41.58</td><td>3.33</td><td>37.11</td><td>8.51</td><td>39.21</td><td>4.70</td></tr><tr><td>BIRD-SQL</td><td>47.75</td><td>47.49</td><td>45.76</td><td>2.16</td><td>42.18</td><td>5.09</td><td>44.04</td><td>2.95</td></tr><tr><td>Spider</td><td>81.79</td><td>80.58</td><td>82.49</td><td>4.42</td><td>79.18</td><td>8.74</td><td>81.04</td><td>5.70</td></tr><tr><td colspan="9">Math</td></tr><tr><td>AIME 2025</td><td>61.88</td><td>55.89</td><td>60.00</td><td>4.57</td><td>63.33</td><td>5.36</td><td>63.33</td><td>3.46</td></tr><tr><td>OlympiadBench</td><td>77.59</td><td>76.19</td><td>74.07</td><td>3.70</td><td>75.85</td><td>6.46</td><td>76.59</td><td>3.81</td></tr><tr><td>GSM-Plus</td><td>89.41</td><td>89.71</td><td>89.74</td><td>2.68</td><td>89.23</td><td>7.14</td><td>89.69</td><td>3.83</td></tr><tr><td>CMATH</td><td>96.58</td><td>96.52</td><td>96.90</td><td>2.17</td><td>96.54</td><td>4.84</td><td>96.63</td><td>2.65</td></tr><tr><td>Omni-MATH</td><td>54.00</td><td>53.00</td><td>50.30</td><td>3.39</td><td>52.30</td><td>6.01</td><td>54.10</td><td>3.50</td></tr><tr><td colspan="9">Agent & Alignment</td></tr><tr><td>IFEval-strict-prompt</td><td>83.73</td><td>81.15</td><td>82.62</td><td>1.47</td><td>83.36</td><td>2.24</td><td>83.55</td><td>1.41</td></tr><tr><td>BFCL v3</td><td>73.41</td><td>67.69</td><td>74.94</td><td>4.87</td><td>74.86</td><td>9.24</td><td>75.61</td><td>6.76</td></tr><tr><td>Nexus FC</td><td>49.93</td><td>36.25</td><td>50.45</td><td>5.53</td><td>44.83</td><td>11.29</td><td>47.65</td><td>7.38</td></tr></table> 资料来源:机器之心,华鑫证券研究 实验评估结果显示,LLaDA2.1在性能与效率上实现了双重提升。在极速模式下,模型任务得分相较于LLaDA2.0略有下降,但每次前向推理生成的Token数(TPF)实现显著提升;在质量模式下,160亿与1000亿参数两个版本的性能均全面超越LLaDA2.0。量化后的LLaDA2.1-Flash在HumanEval+基准上峰值速度达891.74Tokens/秒,LLaDA2.1-Mini峰值速度更是高达1586.93Tokens/秒,其中代码类任务吞吐率表现最为突出。此外,在极速模式下引入多块编辑(MBE)技术,可在两个模型版本上跨多个基准稳定提升性能,仅带来吞吐率的小幅下降。与LLaDA2.0、Ling、Qwen3等同类模型相比,LLaDA2.1在极速模式下以牺牲极少输出质量为代价,实现了推理速度的显著领先,展现出极强的效率优势。 图表6:TPS结果对比示意图 Figure 3: Throughput (TPS) comparison on nine benchmarks, consistent with the evaluation settings in Table 3, for LLaDA2.1 variants against LLaDA2.0, Ling, and Qwen3 across the mini (left) and flash (right) series. 资料来源:机器之心,华鑫证券研究 LLaDA2.1的推出并非旨在否定自回归架构,而是以务实的技术创新证明了扩散语言模型的产业化潜力,打破了大语言模型发展路径的单一性,让自回归之外的第二条技术路线成为可持续推进、值得资源投入的重要方向。 # 2、AI应用动态:Gemini周访问量环比+4.31%,Gemini3.1Pro树立多模态新标准 # 2.1、周流量跟踪:Gemini周访问量环比 $+4.31\%$ 本期(2026.2.15-2026.2.21)AI 相关网站流量数据:访问量前三位分别为 ChatGPT(1307.0M)、Bing(801.7M)和 Gemini(529.5M),访问量环比增速第一为 Gemini(4.31%);平均停留时长前三位分别为 Character.AI(00:17:39)、Discord(00:10:46)和 Kimi(00:09:03);平均停留时长环比增速第一为 Kimi(1.31%)。 图表7:2026.2.15-2026.2.21AI相关网站流量 <table><tr><td>应用</td><td>应用类型</td><td>归属公司</td><td>周平均 访问量(M)</td><td>访问量环比</td><td>平均停留时长</td><td>时长环比</td></tr><tr><td>ChatGPT</td><td>聊天机器人</td><td>OpenAI</td><td>1307.0</td><td>-3.97%</td><td>6:10</td><td>-2.37%</td></tr><tr><td>Bing</td><td>搜索</td><td>微软</td><td>801.7</td><td>0.15%</td><td>8:00</td><td>0.42%</td></tr><tr><td>Gemini</td><td>聊天机器人</td><td>谷歌</td><td>529.5</td><td>4.31%</td><td>7:28</td><td>-0.44%</td></tr><tr><td>Canva</td><td>在线设计</td><td>Canva</td><td>204.3</td><td>-5.50%</td><td>5:55</td><td>-1.11%</td></tr><tr><td>Discord</td><td>游戏社区</td><td>微软</td><td>140.8</td><td>3.99%</td><td>10:46</td><td>0.78%</td></tr><tr><td>Github</td><td>代码托管</td><td>微软</td><td>133</td><td>2.07%</td><td>6:32</td><td>0.51%</td></tr><tr><td>Character.AI</td><td>聊天机器人</td><td>Character.AI</td><td>44.14</td><td>2.46%</td><td>17:39</td><td>-2.49%</td></tr><tr><td>NotionAI</td><td>文本/笔记</td><td>Notion</td><td>39.27</td><td>-5.62%</td><td>8:02</td><td>-0.82%</td></tr><tr><td>Perplexity</td><td>AI搜索</td><td>Perplexity</td><td>37.64</td><td>-3.34%</td><td>4:45</td><td>0.00%</td></tr><tr><td>DeepI</td><td>翻译工具</td><td>DeepL</td><td>28.30</td><td>-2.92%</td><td>2:28</td><td>-1.33%</td></tr><tr><td>QuillBot</td><td>释义工具</td><td>QuillBot</td><td>10.71</td><td>1.61%</td><td>2:43</td><td>-2.98%</td></tr><tr><td>Kimi</td><td>聊天机器人</td><td>MoonshotAI</td><td>10.43</td><td>-13.01%</td><td>9:03</td><td>1.31%</td></tr><tr><td>文心一言</td><td>聊天机器人</td><td>百度</td><td>0.43</td><td>-48.54%</td><td>2:41</td><td>-12.97%</td></tr></table> 资料来源:similarweb,华鑫证券研究 # 2.2、产业动态:百万上下文与低幻觉率兼备,Gemini3.1Pro树立多模态新标准 2026年2月20日,谷歌DeepMind发布了其下一代旗舰模型Gemini3.1Pro,这一模型在多个领域实现了技术突破,迅速成为人工智能领域的新标杆,尤其在推理能力表现突出。Gemini3.1Pro在ARC-AGI-2测试中取得了77.1%的高分,性能提升至上一代3.0Pro的两倍有余,同时在ARC-AGI-1测试中也接近满分,超越了包括ClaudeOpus4.6和GPT-5.2在内的多个竞争对手。 图表 8: Gemini3.1Pro 在 ARC-AGI-1 测试和 ARC-AGI-2 测试中的表现 资料来源:新智元,华鑫证券研究 除了推理能力,Gemini3.1Pro在编程和智能体任务中也展现出强大的性能。在AAll综合评测中,3.1Pro不仅总分领先ClaudeOpus4.6多达4分,API调用成本更是不到一半;在LiveCodeBenchPro评测中,其Elo积分高达2887,远超同类模型;在Terminal-Bench2.0测试中,它以 $68.5\%$ 的准确率超越了专攻代码的GPT-5.3-Codex;在APEX-Agents智能体任务中,它以 $33.5\%$ 的成绩领先于Opus4.6和GPT-5.2。 图表 9: Gemini3.1Pro 在 APEX-Agents 智能体任务中的表现 资料来源:新智元,华鑫证券研究 在长文本处理和上下文理解方面,Gemini3.1Pro支持高达100万Token的超长上下文输入,在MRCRv2的128k长上下文测试中取得了 $84.9\%$ 的高分。更值得关注的是,该模型能够处理1MToken级别的输入并取得 $26.3\%$ 的成绩,而其他竞品在此级别任务中则显示不支持,进一步凸显了其在复杂文档理解方面的领先优势。在幻觉率方面,Gemini3.1Pro相比前代模型也有显著改善,生成内容的准确性和可靠性得到提升。 图表 10: Gemini3.1Pro 在多项测试中的表现 资料来源:新智元,华鑫证券研究 图表 11: Gemini3. 1Pro 在 AA-Omniscience 幻觉率评估中的表现 资料来源:新智元,华鑫证券研究 在实际应用层面,Gemini3.1Pro展现出强大的内容生成和系统整合能力。例如,它能够根据简单的文本提示生成可直接嵌入网页的SVG动画,不仅画质清晰、体积小巧,还具备无限放大的特性。此外,它还能够整合复杂的API接口,可以构建出实时的航天数据看板,接入国际空间站的遥测数据,直观展示运行轨迹。 在交互设计和创意编程方面,Gemini3.1Pro同样表现不俗。它能够编写复杂的3D特效代码,例如模拟椋鸟群舞的沉浸式场景,支持手势追踪和实时音效生成,为多模态交互设计提供了高效的原型开发工具。它还能将文学作品转化为具有现代风格的交互界面,例如为《呼啸山庄》设计个人主页,既保留了原著的氛围,又呈现出简洁现代的视觉效果。 此次发布的 Gemini3.1Pro 已正式在 Gemini 和 NotebookLM 中上线,开发者可通过 GoogleAIStudio、Antigravity 以及 AndroidStudio 抢先体验。综上所述,Gemini3.1Pro 的发布标志着 AI 竞赛已进入以算力和算法深度融合为核心的新阶段。 # 3、AI 融资动向:WorldLabs 完成 10 亿美元新一轮融资 2026年2月,由李飞飞创立的世界模型企业WorldLabs官宣完成10亿美元新一轮融资,本轮投资方囊括AMD、英伟达两大芯片巨头,工程软件制造商Autodesk及EmersonCollective、FidelityManagement&ResearchCompany、Sea等知名机构,其中Autodesk单独出资2亿美元并将担任公司顾问展开深度合作。公司暂未披露本轮融资后估值,此前其曾以约50亿美元估值推进该轮融资谈判,所筹资金将全部用于空间智能领域的技术研发与产品落地,加速布局机器人、AR/VR等核心应用赛道。 WorldLabs的核心技术布局聚焦空间智能与大型世界模型,研发的前沿模型可实现对3D世界的感知、生成、推理与交互,突破了传统文本大语言模型的技术边界,能为机器人、游戏、自动驾驶等领域提供真实世界模拟能力。公司于2025年底推出首款旗舰产品Marble,作为空间智能技术的核心落地成果,该工具支持文本、图像、视频等多模态输入,可生成空间一致性高、保真度强的可编辑3D世界,还能以多种2D、3D格式导出,无缝集成至各类工作流程,目前已能自动化媒体娱乐领域3D视觉资产创建的部分手动工作。 此次融资后,WorldLabs将重点强化机器人领域的技术研发与场景应用,目前正招募SLAM系统研究工程师、3D重建专家等核心人才,Marble模型已可生成机器人操作环境的虚拟复制品,为机器人AI模型的模拟训练提供精准环境支撑。同时,WorldLabs与Autodesk的合作将率先落地娱乐应用场景,后续还计划将技术整合至Autodesk的工程设计工具组合,覆盖工业机器人编程等领域。此次超大规模融资,不仅印证了资本市场对空间智能赛道的高度认可,也推动3D世界模型技术从基础研究向商业化落地加速迈进,为数字孪生、空间计算等领域的发展注入核心动力。 图表 12:上周 AI 初创公司融资动态 <table><tr><td>应用</td><td>应用类型</td><td>领投方</td><td>融资轮</td><td>融资额</td><td>目前累计融资额</td><td>目前估值</td></tr><tr><td>WorldLabs</td><td>AI技术服务</td><td>Autodesk、AMD、英伟达等</td><td>新一轮融资</td><td>10亿美元</td><td>约11.3亿美元</td><td>50亿美元</td></tr><tr><td>PoetiqLLM增强平台</td><td>AI技术服务</td><td>FYRFLYVenturePartners、SurfaceVentures</td><td>种子轮</td><td>4580万美元</td><td>4580万美元</td><td>未披露</td></tr></table> Fundamental AI技术服务 OakHC/FT A轮 2.55亿美元 2.55亿美元 12亿美元 # 4、投资建议 2026年2月20日,Anthropic推出了AI驱动的安全工具ClaudeCodeSecurity。该工具通过结合自动化的速度与人工的分析方式,帮助开发者应对AI时代日益严峻的网络安全风险。与仅依赖已知漏洞模式的传统分析工具不同,ClaudeCodeSecurity能够像资深安全工程师一样,理清代码组件的交互与数据流动,从而捕获业务逻辑缺陷、访问控制失效等较为复杂的漏洞。其每项发现都会经过多阶段验证流程,通过充分的举证质证来过滤误报,并提供置信度与严重性评级,以便团队优先处理最关键的问题。目前,该工具已面向企业版和团队版客户开放有限研究预览版,开源维护者也可申请免费快速访问权限。此次Anthropic新的工具发布代表着AI应用逐步开始融入并重塑企业核心的业务流程,其逐渐从原先的辅助工具转向实际商业化落地。我们认为AI应用的下一阶段是行业深度定制,当前通用大模型正向垂直行业工具渗透,以解决特定痛点。在此过程中,拥有行业数据壁垒的企业将构筑显著优势,它们能够将通用大模型私有化,构建起与业务深度绑定、难以被通用模型复制的Agent。基于此,我们维持对AI应用垂直领域板块的看好。 中长期,建议关注加快扩张算力业务的精密零部件龙头迈信林(688685.SH)、新能源业务高增并供货科尔摩根等全球电机巨头的唯科科技(301196.SZ),AI智能文字识别与商业大数据领域巨头的合合信息(688615.SH)、深耕工业AI与软件并长期服务高端装备等领域头部客户的能科科技(603859.SH)。 图表 13:重点关注公司及盈利预测 <table><tr><td rowspan="2">公司代码</td><td rowspan="2">名称</td><td rowspan="2">2026-02-25 股价</td><td colspan="3">EPS</td><td colspan="3">PE</td><td rowspan="2">投资评级</td></tr><tr><td>2024</td><td>2025E</td><td>2026E</td><td>2024</td><td>2025E</td><td>2026E</td></tr><tr><td>301196.SZ</td><td>唯科科技</td><td>89.50</td><td>1.76</td><td>2.53</td><td>3.34</td><td>50.85</td><td>35.38</td><td>26.80</td><td>买入</td></tr><tr><td>603859.SH</td><td>能科科技</td><td>47.46</td><td>0.78</td><td>0.96</td><td>1.18</td><td>60.85</td><td>49.44</td><td>40.22</td><td>买入</td></tr><tr><td>688615.SH</td><td>合合信息</td><td>226.00</td><td>4.01</td><td>3.37</td><td>4.11</td><td>56.36</td><td>67.06</td><td>54.99</td><td>买入</td></tr><tr><td>688685.SH</td><td>迈信林</td><td>47.86</td><td>0.31</td><td>1.64</td><td>2.26</td><td>154.39</td><td>29.18</td><td>21.18</td><td>买入</td></tr></table> 资料来源:Wind,华鑫证券研究 # 5、风险提示 1)AI底层技术迭代速度不及预期。2)政策监管及版权风险。3)AI应用落地效果不及预期。4)推荐公司业绩不及预期风险。 # 中小盘&主题&北交所组介绍 任春阳:华东师范大学经济学硕士,6年证券行业经验,2021年11月加盟华鑫证券研究所,从事计算机与中小盘行业上市公司研究 周文龙:澳大利亚莫纳什大学金融硕士 陶欣怡:毕业于上海交通大学,于2023年10月加入团队。 倪汇康:金融学士,2025年8月加盟华鑫证券研究所。 # 证券分析师承诺 本报告署名分析师具有中国证券业协会授予的证券投资咨询执业资格并注册为证券分析师,以勤勉的职业态度,独立、客观地出具本报告。本报告清晰准确地反映了本人的研究观点。本人不曾因,不因,也将不会因本报告中的具体推荐意见或观点而直接或间接收到任何形式的补偿。 # 证券投资评级说明 股票投资评级说明: <table><tr><td></td><td>投资建议</td><td>预测个股相对同期证券市场代表性指数涨幅</td></tr><tr><td>1</td><td>买入</td><td>>20%</td></tr><tr><td>2</td><td>增持</td><td>10%—20%</td></tr><tr><td>3</td><td>中性</td><td>-10%—10%</td></tr><tr><td>4</td><td>卖出</td><td><-10%</td></tr></table> 行业投资评级说明: <table><tr><td></td><td>投资建议</td><td>行业指数相对同期证券市场代表性指数涨幅</td></tr><tr><td>1</td><td>推荐</td><td>>10%</td></tr><tr><td>2</td><td>中性</td><td>-10%-10%</td></tr><tr><td>3</td><td>回避</td><td><-10%</td></tr></table> 以报告日后的12个月内,预测个股或行业指数相对于相关证券市场主要指数的涨跌幅为标准。 相关证券市场代表性指数说明:A股市场以沪深300指数为基准;新三板市场以三板成指(针对协议转让标的)或三板做市指数(针对做市转让标的)为基准;香港市场以恒生指数为基准;美国市场以道琼斯指数为基准。 # 免责条款 华鑫证券有限责任公司(以下简称“华鑫证券”)具有中国证监会核准的证券投资咨询业务资格。本报告由华鑫证券制作,仅供华鑫证券的客户使用。本公司不会因接收人收到本报告而视其为客户。 本报告中的信息均来源于公开资料,华鑫证券研究部门及相关研究人员力求准确可靠,但对这些信息的准确性及完整性不作任何保证。我们已力求报告内容客观、公正,但报告中的信息与所表达的观点不构成所述证券买卖的出价或询价的依据,该等信息、意见并未考虑到获取本报告人员的具体投资目的、财务状况以及特定需求,在任何时候均不构成对任何人的个人推荐。投资者应当对本报告中的信息和意见进行独立评估,并应同时结合各自的投资目的、财务状况和特定需求,必要时就财务、法律、商业、税收等方面咨询专业顾问的意见。对依据或者使用本报告所造成的一切后果,华鑫证券及/或其关联人员均不承担任何法律责任。本公司或关联机构可能会持有报告中所提到的公司所发行的证券头寸并进行交易,还可能为这些公司提供或争取提供投资银行、财务顾问或者金融产品等服务。本公司在知晓范围内依法合规地履行披露。 本报告中的资料、意见、预测均只反映报告初次发布时的判断,可能会随时调整。该等意见、评估及预测无需通知即可随时更改。在不同时期,华鑫证券可能会发出与本报告所载意见、评估及预测不一致的研究报告。华鑫证券没有将此意见及建议向报告所有接收者进行更新的义务。 本报告版权仅为华鑫证券所有,未经华鑫证券书面授权,任何机构和个人不得以任何形式刊载、翻版、复制、发布、转发或引用本报告的任何部分。若华鑫证券以外的机构向其客户发放本报告,则由该机构独自为此发送行为负责,华鑫证券对此等行为不承担任何责任。本报告同时不构成华鑫证券向发送本报告的机构之客户提供的投资建议。如未经华鑫证券授权,私自转载或者转发本报告,所引起的一切后果及法律责任由私自转载或转发者承担。华鑫证券将保留随时追究其法律责任的权利。请投资者慎重使用未经授权刊载或者转发的华鑫证券研究报告。 报告编号:HX-260225161721 请阅读最后一页重要免责声明