> **来源:[研报客](https://pc.yanbaoke.cn)** # 《大模型技术深度赋能保险行业白皮书》 # (2025) # ——智能体驱动的保险新范式 阳光保险集团股份有限公司 对外经济贸易大学 2025年12月 # 前言 自2023年以来,以大模型为代表的新一代人工智能技术持续演进,从能力初显的惊艳登场,走向价值涌现的规模化落地,并在2024—2025年完成了从规模扩张到认知升级的关键跨越。政策与产业两端同频共振:一方面,国家层面相关制度与标准体系不断完善,为大模型与智能体在保险领域的稳健应用提供了明确的合规边界与治理框架;另一方面,保险行业内外部要素加速融合,算力与数据要素加快流动,技术从通用对话走向专业推理,从单点工具走向系统工程,正深刻重塑保险的生产方式、运营范式与服务逻辑。 进入2025年,行业关注的主线更加清晰:从“将模型嵌入单点场景”转向“让系统自主完成任务”。智能体(AI Agent)开始成为落地的核心形态——它不仅能回答问题,更能围绕业务目标进行推理与规划,调用工具与系统执行操作,在反馈中持续校正,并将关键过程留痕,以支持审计、评估与复盘。围绕这一跃迁,行业建设重点进一步聚焦在三类能力的系统化落地:其一,形成“事前识别与预警一事中协同处置一事后复盘改进”的业务闭环,使风险管理从分散动作走向可持续运行的流程体系;其二,打通数据、模型与流程,让智能真正嵌入承保、理赔、风控、客服、投研等关键链路,成为可重复调用的生产力;其三,在可信、可控、可审计的治理边界内,以统一口径的指标衡量效果与风险,使应用可度量、可迭代、可推广。由此,保险业也从“被动理赔、事后补偿”的传统逻辑,逐步迈向覆盖事前、事中与事后的全流程管理,并由此孕育出“智能体驱动的保险新范式”。 保险与大模型或智能体具有天然适配性。保险业务条款密集、规则严谨、流程复杂,且对合规、风控与责任界定要求极高,这决定了其数字化升级不仅要“能用”,更要“用得准、用得稳、说得清”。伴随国产大模型与信创算力体系的快速发展,行业在底层基础设施、通用能力与垂直知识工程上加速贯通;以多智能体协作为特征的新一代应用,正在将“知识—数据—流程—责任”纳入可验证的工程体系,推动保险数字化从信息化迈向智能化,从“工具叠加”迈向“业务原生”。更重要的是,这一进程的意义不止于效率提升,更在于价值逻辑的重构:从粗粒度判断走向精细化识别,从事后响应走向事前主动,从单一保障走向跨场景的综合服务。 本年度《大模型技术深度赋能保险行业白皮书(2025)——智能体驱动的保险新范式》在延续往年框架的基础上,围绕2025年的关键变化进行系统升级。第一章聚焦“从规模扩张到认知升级”,梳理全球与国产基础模型的能力跃迁与产业协同,关 注推理增强、偏好对齐、多模态统一与具身智能等前沿趋势,并解析其对保险适配的关键影响;第二章系统阐释智能体技术谱系,从单智能体的规划、执行、验证到多智能体的分工、博弈与智能,讨论反馈驱动与强化学习对动态演化的促进作用;第三章面向价值实现,选取国内外代表性案例,呈现客服、核保理赔、风控、投研、营销与培训等核心环节的可复制路径,强调“平台底座+场景牵引+指标驱动”的工程方法;第四章聚焦标准对齐与安全治理,围绕数据安全、算法公平、可解释与可审计、责任界定与第三方评估等提出面向保险场景的治理框架与实施要点;第五章在总结范式演进的同时,研判未来挑战,并给出围绕算力体系、算法定制、数据合规与行业协同的实践建议。 本文坚持技术导向与产业导向相结合,以“认知增强—工程落地—治理护航”为主线:一方面把技术做得可靠、可用、可持续,另一方面把AI Agent真正嵌入承保、理赔、风控、客服等关键流程,带动流程优化与组织能力升级。我们既立足国产技术生态与本土合规要求,也吸收国际实践与多模态协同思路;并通过对典型案例的系统梳理,配套一系列口径统一、可量化的评价指标,力求给行业提供看得懂、用得上、能评估、可复制的实践参照。我们希望这部白皮书既是一份行业“共同语言”,也是一套可操作的路线图,帮助公司建设AI能力,形成从数据到模型、从智能体到业务流、从效果评估到治理审计的全链路闭环,让技术红利更快转化为业务与社会价值。 面向未来,智能体将持续迈向自主协同、跨域融合与具身智能,在可信、可控、可审计的边界内,它将与保险业一起,逐步把服务从“出了事再赔”推进到“事前预警、事中干预、事后复盘”的全流程主动式服务。我们愿与产业各方一道,坚持长期投入与开拓创新,协同汇聚算力与数据之基、技术与标准之纲、产业与生态之势,共建共治、聚力前行,推动保险业从“科技赋能”迈向“科技引领”,在高质量发展的时代进程中谱写保险智能化的新篇章。 编委会 二〇二五年十二月 # 目录 前言 1 第一章 大模型技术发展:从规模扩张到认知升级 7 1.1 全球基础模型的能力跃迁与产业协同 7 1.1.1 全球标杆基础模型核心创新与保险适配突破 7 1.1.2 全球算力迭代与大模型驱动下的全球保险变革 10 1.1.3 具身智能的落地实践与保险保障体系创新 15 1.2 国产大模型的技术崛起与生态构建 ..... 18 1.2.1 国产大模型的技术突破与能力演进 18 1.2.2国产AI芯片与算力基础设施的协同发展 24 1.2.3 国产大模型垂直应用深度分析:保险领域的变革 27 1.3 深度思考模式的突破 30 1.3.1推理能力的架构级跃迁:从链式思维到自洽性认知 30 1.3.2 偏好对齐的机制级进化:从 RLHF 到 DPO/GRPO 与可验证强化 ..... 33 1.3.3 多模态融合的认知架构重构:跨模态对齐与语义统一 36 1.3.4 认知增强技术的范式重构:从检索增强到自主认知引擎 39 第二章 智能体(AI Agent)技术演进:从工具调用到自主协同 41 2.1 AI Agent 的核心架构:感知理解与行动闭环 41 2.1.1.大脑:Agent规划决策的指挥官 42 2.1.2.工具:工具调用与外部知识集成 44 2.1.3. 记忆:对话历史与个性化服务 45 2.1.4.行动:决策与执行验证 46 2.2 多智能体系统(Multi-Agent System)的关键技术:单一任务与复杂系统 47 2.2.1 多智能体的必然性:复杂任务下的分工与协同优势 47 2.2.2 协同协议:智能体间的通信与协商机制 48 2.2.3博弈与均衡:竞争协作以实现全局目标 50 2.2.4.系统涌现性:从个体智能到集体智慧 52 2.3 强化学习与反馈驱动的智能演化:静态执行与动态成长 53 2.3.1 环境反馈与奖励函数设计:定义智能体的“价值罗盘” 54 2.3.2 核心算法演进:从传统 RL 到大模型赋能的 LLM-RL 58 2.3.3反馈驱动:构建动态演化的“智能飞轮” 62 2.3.4.技术融合与行业展望:LLM+Agent+Insurance的新范式 64 第三章 智能体赋能保险行业:从场景融合到价值实现 68 3.1 保险智能体优秀应用案例-国内篇 68 3.1.1 阳光保险 68 3.1.2中国人保 73 3.1.3中国人寿 74 3.1.4 中国平安 75 3.1.5 泰康人寿 81 3.1.6 中国太保 82 3.1.7 太平资产 85 3.1.8 太平金科 88 3.1.9 太平再保险 91 3.1.10 中国再保 92 3.1.11 新华保险 96 3.1.12 互联网平台保险 98 3.2 保险智能体优秀应用案例 - 国际篇 ..... 100 3.2.1 安联集团(Allianz) 100 3.2.2瑞士再保险集团(SwissRe) 102 3.2.3 安盛集团(AXA Group) 104 3.2.4 EXL Services 106 3.2.5 慕尼黑再保险集团(Munich Re) 107 3.2.6 安泰保险公司(Allstate Corporation) 109 3.2.7 苏黎世保险集团(Zurich Insurance Group) 110 3.2.8宏利金融集团(Manulife) 112 第四章 标准对齐与安全治理:构建可信、可控、可审计的LLMs+Agent生态 113 4.1 LLMs 政策制度与国家标准 114 4.1.1 政策制度:以"数据-算法-算力"为核心要素的体系化制度框架形成 114 4.1.2 国家标准:LLMs相关国家标准加紧发布 116 4.1.3 国际对标:NIST AI RMF、ISO/IEC 42001 等治理框架渐次推出 ..... 120 4.2 保险行业LLMs应用:遵循业务规范,构建治理闭环 ..... 121 4.2.1 销售与营销场景 122 4.2.2 产品开发场景 ..... 123 4.2.3 理赔服务与风险控制场景 ..... 124 4.2.4 客户服务场景 ..... 125 4.3 智能体技术应用风险及应对 ..... 126 4.3.1 技术风险分析:AI Agent 在保险场景中的潜在隐患 ..... 126 4.3.2行业应用风险分析:保险生态中的特有挑战 127 4.3.3 应对策略:以行为监管为盾、风险治理为矛 128 4.4 结语 129 第五章 总结与展望:迈向智能体驱动的保险新范式 129 5.1 AI Agent 驱动的保险范式变革 129 5.1.1 AI Agent 技术:性能、模态与场景的三维协同演化 ..... 129 5.1.2 保险核心业务环节的智能赋能跃迁 ..... 131 5.1.3 保险服务与风险管控的智能化演进 ..... 132 5.1.4大模型-智能体-保险知识工程融合的保险新范式核心内涵 133 5.1.5 保险新范式下行业价值逻辑与生态边界的重构 ..... 134 5.2保险行业的演进方向 135 5.2.1 国内大模型驱动:合规锚定、本土融合与行业普惠下的服务深化 135 5.2.2 国外大模型驱动:技术领先、全球协同与多模态融合下的生态突破 137 5.3 未来挑战与应对建议 138 5.3.1 多维冲击下的保险行业变革:技术迭代、伦理风险与生态重构 138 5.3.2可持续发展的保险大模型实践路径:技术优化、制度协同与生态共建.139 致谢 142 # 第一章 大模型技术发展:从规模扩张到认知升级 # 1.1 全球基础模型的能力跃迁与产业协同 # 1.1.1 全球标杆基础模型核心创新与保险适配突破 # 推理能力革新:从“结果输出”到“过程可溯”的决策升级 2025年全球标杆基础模型的核心突破集中于推理架构的底层重构,通过将“类人深度思考过程”内置为核心能力,实现从被动响应到主动规划的跨越,为保险复杂决策场景提供了可解释、高可信的技术支撑。图1-1为全球知名大模型评测第三方Artificial Analysis网站对2025年9月及以前发布的包括GPT-5、Grok4、Gemini 2.5 Pro等大模型进行的综合了Humanity's Last Exam,LiveCodeBench等10个基准测试的智能指数排名。 图1-1各大模型智能指数排名 以OpenAI的GPT-5、o4-mini,xAI的Grok4、谷歌的Gemini2.5Pro等为代表的新一代高端推理模型,在底层架构中整合“深度思考”能力,谷歌创新性地提出了“思维链(Chain of Thought)推理”概念,生成答案前会自动搭建解题路径并完成内部验证。从国际大模型基准测试结果来看,各主流模型在不同专业赛道的竞争优势差异明显。表1-1整理了全球部分知名大模型在各基准测试的成绩,综合知识推理领域,Grok4以 $25.4\%$ 的准确率小幅领先,GPT-5紧随其后( $25.3\%$ ),二者均体现出顶尖的知识推导与应用能力;数学赛道的AIME2025测试中,GPT-5以 $95.0\%$ 的超高准确率大幅领先其他模型,其中等难度数学推理能力是该领域的标杆;代码生成领域的LiveCodeBenchv5测试里,o4-mini( $74.7\%$ )与o3( $74.1\%$ )占据头部位置。整体而言,GPT-5凭借多领域均衡且顶尖的表现成为综合强者,Grok-4在知识推理、o系列模型在代码生成领域分别建立核心竞争力,清晰呈现出 当前大模型在专业赛道上各有侧重、精准突破的竞争格局。 # 表 1-1 各大模型基准测试成绩 (表注:基准测试下方的灰色字代表测试领域。表格内以百分比单位表示的是该模型在该基准测试的准确率/得分。数据来源:最终考试、视觉工具基准、多重挑战:https://scale.com/leaderboard/;AIME2025、IMO2025:https://matharena.ai/;实时代码基准:https://livecodebench/github.io/;Aide 多语言基准:https://aider chat/docs/leaderboards/) <table><tr><td>基准测试</td><td>GPT-5</td><td>Gemini 2.5 Pro</td><td>Grok4</td><td>Claude 3.7 sonnet</td><td>o4-mini (high)</td><td>o3 (high)</td></tr><tr><td>最终考试知识推理</td><td>25.3%</td><td>21.6%</td><td>25.4%</td><td>8.0%</td><td>18.1%</td><td>20.32%</td></tr><tr><td>视觉工具基准图像推理</td><td>18.7%</td><td>11.75%</td><td>--</td><td>--</td><td>11.12%</td><td>13.74%</td></tr><tr><td>AIME2025数学</td><td>95.0%</td><td>87.5%</td><td>92.5%</td><td>84.17%</td><td>91.67%</td><td>89.17%</td></tr><tr><td>IMO2025数学</td><td>38.1%</td><td>31.55%</td><td>21.4%</td><td>--</td><td>14.29%</td><td>16.67%</td></tr><tr><td>实时代码基准代码生成</td><td>--</td><td>69.9%</td><td>--</td><td>--</td><td>74.7%</td><td>74.1%</td></tr><tr><td>Aider 多语言基准代码编辑</td><td>88.0%</td><td>83.1%</td><td>79.6%</td><td>64.9%</td><td>72.0%</td><td>81.3%</td></tr><tr><td>多重挑战复杂任务推理</td><td>58.55%</td><td>51.91%</td><td>--</td><td>51.58%</td><td>42.99%</td><td>56.51%</td></tr></table> 在保险场景中,这一机制让核保决策从“黑盒输出”转向“逻辑透明”。以复杂健康险核保为例,模型会自动拆解“病史关联性分析 $\rightarrow$ 治疗方案评估 $\rightarrow$ 未来风险预测 $\rightarrow$ 条款适配验证”的四步推理链条,提升核保结论的逻辑完整性,减少人工复核压力。这种可追溯的推理过程,恰好满足保险决策对合规性与可解释性的核心要求。 当前最新的推理大模型通过“实时知识接口”与行业权威数据库建立动态连接,解决了传统模型因“静态训练”导致的知识滞后问题。其创新的“领域知识优先级调度”技术,在处理保险专业任务时,会自动提高行业法规、条款释义等核心数据的调用优先级,确保决策依据的时效性与准确性。在合规审核场景中,模型可通过实时网络搜索对接监管部门的法规更新系统,自动识别修订内容,在保单审核中即时触发合规校验,将新规适配响应时间从传统人工的长耗时缩短至分钟级。这种动态适配能力,让模型在监管政策密集调整的保险领域具备很强的实用价值。 # 多模态融合:从“模块拼接”到“原生协同”的体验质变 基础模型的多模态技术实现质的飞跃,通过统一编码器架构实现文本、图像、音视频等信息的底层深度协同,彻底解决前代模型“模态转换损耗”问题,大幅拓展保险场景的应用范围。Gemini 2.5 Pro 采用统一多模态编码器,支持文本、图像、音频、视频和代码的混合输入与联合推理,无需格式转换就能直接进行跨模态信息运算;在 VideoMME 基准测试中,其视频理解能力得分 $84.8\%$ ,跨模态推理准确率达 $89.5\%$ ,支持 1080P 视频生成和动态图表数据提取,接入的 Veo2 视频生成功能可生成 8 秒 720p 短视频,直接分享至社交媒体。 在保险场景中,这一能力可应用于车险定损与健康险核保等核心环节。比如,集成该技术的车险定损系统能同步解析事故视频、定损照片、报案语音:从视频中提取碰撞角度、车速等动态数据,与照片中的损伤细节比对,结合语音情绪特征判断陈述真实性,最终生成一体化报告,不仅缩短处理周期,还能降低误差率;在健康险领域,模型可直接解析体检报告图像与病史语音记录,自动提取关键指标并关联核保规则,提升资料审核效率。 # 效率与成本:从“高端专属”到“普惠可用”的技术下沉 2025年,模型通过长上下文优化与工程化落地创新实现性能提升与成本下降的双重突破,助力保险大模型应用从头部险企试点逐步向全行业普及。Gemini2.5Pro能稳定运行100万tokens的上下文窗口,可一次性解析超长文本或数小时视频内容,未来计划扩展至200万tokens,是2024年主流模型容量的7.8倍。开源领域,腾讯优图实验室与南京大学联合推出的Long-VITA模型也实现类似突破,原生 支持100万tokens输入,在单机推理场景下将推理长度提升 $417\%$ 。 在团险承保场景中,这一能力的价值尤为突出:模型可一次性处理大规模参保清单、企业财务报表、过往赔付记录等复杂信息,自动识别“高风险职业聚集”、“赔付异常波动”等潜在风险点,既提升团险承保审核效率,又降低人工介入率。这种大规模信息处理能力,正好匹配保险行业数据密集型业务的需求。 谷歌通过“渐进式知识蒸馏”与混合精度训练技术,在保持 Gemini 2.5 Pro 性能的同时,将参数规模压缩至高效子网,成本优势明显:输入定价 1.25 美元/百万 tokens,较 OpenAI-o3 的 10 美元降低 $87.5\%$ ;输出定价 10 美元/百万 tokens,远低于 Claude 4 Opus 的 75 美元收费标准,企业用户通过 Vertex AI 平台部署还能进一步降低成本。此外,OpenAI 通过多元化算力合作策略控制基础设施成本,除了此前合作的英伟达、AMD 等芯片公司,2025 年还先后与谷歌云、甲骨文、 CoreWeave 等达成合作,并联合芯片巨头博通推进自研芯片设计,减少对外部算力的依赖,降低运营成本。这种成本优化最终传导到应用端,让中小险企也能承担大模型技术部署费用。 # 1.1.2 全球算力迭代与大模型驱动下的全球保险变革 # 算力硬件技术突破:从“参数竞争”到“场景适配”的质变 2025年,全球算力产业的核心变革聚焦于英伟达等芯片巨头GPU的迭代升级与大模型的深度协同:以A100-H100-H200-L40s形成的算力矩阵,搭配“私有集群——云端租赁——边缘节点”混合部署模式,切实缓解保险行业“多模态数据处理滞后、大模型运行成本高、场景适配不足”的核心痛点。与传统硬件单纯堆砌参数不同,英伟达算力革新以“优化大模型运行效率”为核心逻辑,通过阶梯式提升内存带宽、计算精度、能效比,支撑GPT-5、Gemini2.5Pro等大模型规模化应用,推动算力从头部险企专属资源转变为全行业可利用的普惠生产要素,深度重构核保、理赔、风控全链路价值。 算力硬件的突破核心是“围绕AI大模型演进的阶梯式升级”,重点解决保险场景的三大需求:一是支撑多模态大模型的并行数据处理,解决图像、文本、语音混合数据协同解析的问题;二是降低千亿级参数模型的训练与推理成本,满足精算定价、风险模拟等长周期计算需求;三是优化边缘场景的实时响应能力,适配车险查勘等前端高频场景。如表1-2所示,各产品参数逐步提升,从A100到H200的迭代形成清晰技术路径,每代产品都针对性解决前代的算力瓶颈。 # 表 1-2 英伟达系列芯片参数 (表注:TDP 指 Thermal Design Power,散热设计功耗。数据来源:英伟达官网产品介绍) <table><tr><td>硬件类型</td><td>代表产品</td><td>核心技术参数</td></tr><tr><td>高端训练 GPU</td><td>H200</td><td>141GB HBM3e 内存, 4.8TB/s 带宽, FP64 精度 34TFLOPS, FP32 精度 67TFLOPS, 最高 700WTDP</td></tr><tr><td>主流训练 GPU</td><td>H100</td><td>80GB HBM3 内存, 3.35TB/s 带宽, FP64 精度 34TFLOPS, FP32 精度 67TFLOPS, 最高 700WTDP</td></tr><tr><td>边缘推理 GPU</td><td>L40s</td><td>48GB GDDR6 ECC 内存, 864GB/s 带宽, FP32 精度 91.6TFLOPS, 最高 350WTDP</td></tr><tr><td>前代标杆 GPU</td><td>A100</td><td>80GB HBM2e 内存, 2.0TB/s 带宽, FP64 精度 7.9TFLOPS, 最高 400WTDP</td></tr></table> 英伟达从A100到H200的迭代形成“内存——计算——能效”三位一体的优化路径,每代产品都精准匹配AI大模型的演进需求,进而缓解保险场景的算力瓶颈。A100作为大模型时代的奠基产品,通过HBM2e内存首次实现TB级带宽,支撑早期GPT3、Llama等模型训练,但2.0TB/s带宽在处理多模态数据时仍存在“数据等待计算”的传输中断问题,单卡训练千亿参数模型时间较久。H100的HBM3内存将带宽提升至3.35TB/s,配合Transformer引擎的精度优化,使GPT-4o推理速度和解析准确率均有提升,但80GB的HBM3内存仍难以满足多模态数据并行加载需求。 H200的核心突破在于HBM3e内存与能效比的协同升级:141GB内存容量与4.8TB/s带宽较H100提升 $43.28\%$ ,结合动态功耗调节技术可加载Gemini2.5Pro、GPT-5的多模态输入层数据。图1-2左图展示了英伟达官方对H200在MILC(MIMD格点计算协作,处理大规模量子色动力学等复杂物理模型并行计算)与Dualx86CPU进行比较,性能增强110倍的表现,右图展示了HPC(高性能计算)方面,H200比前代算力硬件两倍的提升。这种提升对保险场景的价值主要体现在两方面:一是训练效率,千亿参数保险核保模型的训练周期缩短;二是推理并发能力,单卡可同时处理多张车险定损图像。L40s则聚焦边缘场景,通过GDDR6X内存与轻量化架构设计,适配Gemini2.5FlashImage(NanoBanana)等边缘端大模型,解决车险查勘等前端场景“实时性+低功耗”的需求难题,形成“云端H200/H100训练——边缘端L40s推理”的全链路算力支撑体系。 图1-2 H200在MILC和HPC应用上的表现对比 在保险实务场景中,H200的效能提升直接转化为业务效率与成本控制的双重改善,成为大型险企核心业务场景的首选算力方案。以团财险核保为例,采用8卡HGX H200模组组成的本地算力集群,可一次性加载千级参保人员的职业风险等级数据、企业经营财务报表、过往赔付记录、行业风险系数等多维度复杂信息,将基于千亿参数的团财险核保模型训练周期、缩短训练效率提升的同时,模型对高风险参保标的仍保持高识别准确率,有效降低承保风险。预计在车险定损场景中,H200这类高端推理GPU的高并发推理能力优势更为明显,搭载精算部门定制化的车辆损伤识别模型后,可实现事故车辆图像的毫秒级处理,控制推理延迟,并行处理多张定损图像,用更少的显卡完成更复杂的任务,处理效率较传统GPU有较大提升,也能控制成本不会激增。 # 保险算力部署革新:全球协同架构 2025年全球保险算力部署的核心逻辑是“不同层级算力与场景需求的精准匹配”,告别传统“单一集群”模式,以英伟达为例,形成“私有集群(H200/H100)+云租赁(H100/A100)+边缘节点(L40s)”的混合架构。这种架构的核心优势在于“算力资源弹性调度与成本最优”:核心敏感场景采用私有集群保障数据安全,弹性场景通过云租赁降低闲置成本,前端场景依托边缘节点实现实时响应。 首先,私有智算集群的核心价值是“大模型训练与核心数据安全的双重保障”,全球头部大模型公司均以H200、H100等高端推理显卡为核心构建服务器集群。OpenAI于2025年8月推出的GPT-5,堪称当前算力密集型模型的巅峰之作,其硬件配置达到了行业前所未有的规模。虽然GPT为闭源模型,无法获知具体参数及训练状况,但是根据媒体R-bloggers及OpenAI联合创始人及科学家安德烈·卡 帕西(Andrej·Karpathy)等相关专业人士的预测,GPT-5参数规模大约为330-635B,结合H100的算力水平,训练GPT-5大约需要部署30000-50000张H100显卡。这些显卡通过NVLink技术实现卡间互联,构建起超算级的分布式训练体系。此外,OpenAI首席执行官山姆·奥尔特曼按曾宣布“百万GPU计划”,在2025年底前将推理集群扩容至100万块GPU,这一规模预计将占全球高端AI显卡总量的十分之一,帮助公司训练更高端的大模型。 国内大模型企业在算力资源相对有限的背景下,走出了“技术优化替代规模堆砌”的特色路径,其中DeepSeek系列模型凭借极致的训练效率与场景适配能力脱颖而出,成为国产开源大模型的核心代表。DeepSeek-V3以“低成本高性能”重塑了行业对超大规模模型训练的认知。该模型采用混合专家(Mixture of Experts,MoE)架构,总参数量达671B,但通过动态激活机制,每处理一个token仅激活37B参数,在保证性能的同时大幅降低计算开销。训练硬件方面,其核心集群由2048张英伟达H800显卡组成,预训练仅耗时不到两个月,总训练成本约557.6万美元,远低于国外旗舰模型数亿美元的训练开销。 算力硬件的突破对大模型公司训练的提升也对各大险企部署本地算力集群有很大参考意义。核保、精算等场景涉及客户隐私数据与企业核心模型,本地化部署是合规底线;同时,这类场景需频繁迭代大模型(如每日更新风控规则),高端推理芯片可支撑“朝推夕训”模式——白天用推理资源处理业务,夜间用闲置算力训练模型,使模型迭代周期从周级缩至日级。集群可以采用8卡及以上模组搭建,配合英伟达数据中心GPU监控与管理运维工具(Data Center GPU Manager,DCGM),实现故障分钟级恢复,保障长周期训练连续性。 其次,云原生租赁是国外中小公司的主流选择,依托亚马逊云官网(Amazon Web Services,AWS)、微软云计算服务平台(Azure)等云计算服务厂商的英伟达算力池,实现“轻量化接入AI大模型”。这种模式无需中小企业承担高昂的硬件采购与运维成本,通过按需付费、弹性扩容的特性,让其能聚焦核心业务创新,快速验证大模型应用价值。AWS在2025年推出的新一代算力实例,为中小公司提供了从基础推理到超大规模训练的全链路支撑。亚马逊EC2的P6e-GB200超级服务器实例最多搭载72张英伟达Blackwell GPU,P6-B200实例搭载8张Blackwell GPU,HBM3e内存达到1440GB。捷克软件开发公司JetBrains的人工智能总监弗拉迪斯拉夫·坦科夫(Vladislav·Tankov)应用后表示,与他们的机器学习管道中基于H200的P5en实例相比,P6-B200的训练时间缩短了 $85\%$ 以上,进一步的优化预计将带来更大的收益,为客户打造卓越的产品。针对金融行业,尤其是保险公司, Amazon Nova 大模型在云厂商中具备前沿智能和行业领先的性价比,作为所有专有模型系列中拥有最全面定制功能套件的模型,各公司可以对 Nova 进行定制,使其输出能够体现自身的行业专业知识。Nova 提供了精算系统、基于云的核心系统等解决方案,并得到广泛应用,美国最大的财产和意外伤害保险公司州立农业保险公司(State Farm)用 AWS 上的无服务器优先方法,为所有案例构建了一个自动化、数据驱动的风险管理流程。 最后,边缘算力节点作为混合架构的前端延伸,其核心价值在于突破特定场景下“实时响应、离线处理、成本优化”的技术与运营瓶颈,这一价值在农业等实体产业的智能化实践中已得到充分验证,并为保险行业尤其是农业险领域的数字化转型提供了重要技术参照。日本知名企业洋马(Yanmar)在智能温室项目中对AWS IoT Greengrass边缘算力方案的应用极具代表性,其核心诉求是实时识别作物生长阶段,以此动态调整水肥、温湿度等种植条件,实现产量最大化。AWS IoT Greengras边缘算力节点的引入可以将训练好的深度学习机器学习模型部署在温室本地的边缘计算设备中,通过Greengrass的本地推理能力,直接在边缘端完成图像数据的处理与分析——自动识别番茄的株高、叶片数量、花果数量等关键指标,精准判定作物生长阶段,无需将原始图像数据传输至云端。同时,边缘节点可实时对接温湿度、二氧化碳浓度等环境传感器数据,运行逻辑处理函数检测环境异常并触发预警,甚至联动风机、空调、智能水培系统执行校正操作。这一方案不仅规避了网络传输的高额成本,更解决了偏远温室网络信号不稳定的问题,即便在网络中断时仍能维持本地数据处理与设备控制,为作物精细化管理提供了持续稳定的技术支撑,显著提升了温室种植的经济效益与环境可持续性。 将这一技术逻辑延伸至保险场景,边缘算力节点正逐步成为解决农业险痛点的重要支撑,推动农业险从“被动理赔”向“主动风控+精准服务”转型。传统农业险面临着承保数据模糊、风险预警滞后、定损效率低下且准确性不足等问题,尤其在偏远种植区域,因网络覆盖薄弱、数据采集困难,保险公司难以精准评估作物风险,理赔流程往往耗时漫长,农户与保险公司的纠纷时有发生。而基于Greengrass这类边缘算力方案构建的农业险技术体系,能实现多重突破:在承保环节,边缘节点可实时采集田间土壤成分、作物长势、灌溉施肥记录等精准数据,结合历史产量与灾害数据生成个性化承保方案,解决传统农业险“一刀切”的定价弊端;在风险管控环节,边缘设备联动各类环境传感器与卫星遥感数据,本地运行灾害预警模型,当检测到干旱、洪涝、病虫害等风险苗头时,即时向农户推送防御建议,并同步至保险公司风控平台,助力提前介入风险,降低损失发生率;在定损环节,边缘节点可离线完成受灾作物的 图像采集、受损面积测算与产量损失评估,生成标准化定损报告,待网络恢复后自动同步至云端理赔系统,改变传统农业险依赖人工现场勘察、定损周期长的现状。 # 1.1.3 具身智能的落地实践与保险保障体系创新 # 技术逻辑架构解析:“感知——决策——执行” 具身智能的技术落地以“感知层(环境信息采集)——决策层(智能任务规划)——执行层(物理动作输出)”三层协同架构为核心逻辑,通过各层技术的有机联动,实现“理解环境——自主决策——作用于物理世界”的闭环,而大模型是决策层的核心赋能引擎,推动具身智能向通用化能力演进。图1-3为具身智能技术架构流程图,展示了各部分的分工架构与数据流向。 图1-3具身智能技术架构流程图 感知层的核心作用是将物理世界的多维度信息转化为数字信号,为后续决策提供“原材料”,通过“多模态传感器集群+环境建模算法”实现:多模态传感器集群包括整合视觉(摄像头、激光雷达)、力觉(力传感器)、听觉(麦克风)、触觉(电子皮肤)等传感器,如同智能体的“感官系统”,同步捕捉环境中的图像、力反馈、声音、接触感等信息。例如,在复杂场景中,摄像头捕捉物体形态,激光雷达测量空间距离,力传感器感知交互压力,共同描绘环境的“全息快照”。环境建模算法:借助即时定位与地图构建(Simultaneous Localization and Mapping,SLAM)等技术,将分散的传感器数据整合为统一的三维环境模型。例如,机器人在陌生空间移动时,能同时定位自身位置、构建周围环境的数字地图,让智能体“知晓自身与环境的关系”。 决策层是具身智能的“大脑”,负责理解任务目标、规划动作序列,包括大语言模型、多模态大模型的大模型是核心驱动力,模块化拆解复杂任务,把任务拆分为“高层策略规划——中层环境交互——底层行为控制”三个层级,大模型在“高层策略规划”中起关键作用,Grok4、Claude3.7等模型解析自然语言指令(如“把文件放入保险柜”),生成抽象任务目标(“移动文件 $\rightarrow$ 定位保险柜 $\rightarrow$ 完成存放”);中层通过基于大模型构建真实物理模型预测动作的后续影响(如“移动文件是否会碰倒水杯”), 规划安全、高效的动作步骤;底层用传统控制算法或轻量学习模型,将中层步骤转化为电机控制、力调节等具体指令。这种方式适合结构化、可解释性要求高的场景(如工业装配),把复杂问题拆成小步骤解决。 另外,对于近年来涌现的GPT-5、Gemini2.5Pro等高端多模态大模型,具身智能还可以采用端到端自动决策模型:基于大模型直接实现多模态输入(图像+语言指令)到动作输出的一步映射。大模型通过预训练大量“感知——动作”的数据(如“看到物体+指令 $\rightarrow$ 如何抓取”的样本),直接学会从复杂输入到动作的对应关系,无需人工拆解步骤。这种方式适合开放、非结构化的场景(如扫地机器人),泛化能力更强,和人类一样看到事物直接做出反应。 执行层的任务是把决策层的指令转化为真实物理动作,并保障交互安全,通过“仿生驱动技术+人机共融安全设计”实现。仿生驱动技术借鉴生物运动原理(如人体关节、肌肉的协作方式),用电机、减速器、执行器等组件模拟“关节运动”,让人形机器人做出类似人类的抬手、弯腰、抓取等精细动作;执行动作时,人机共融安全设计通过力传感器、碰撞检测算法实时监测与环境(包括人类)的交互力,一旦检测到危险接触(如碰撞人体),立即触发急停,确保作业安全。 # 标杆案例一:宇树 H2 全尺寸仿生人形机器人——民用级高性能仿生人形的技术典范 宇树科技2025年10月20日推出的H2全尺寸仿生人形机器人,以“工业级可靠性+民用级适配性”为核心定位,分为标准版H2与教育开发版H2EDU两个型号,如图1-4所示,图中展示了H2在手臂自由度、灵巧手、仿人双目相机等方面的高性能提升。作为品牌新一代旗舰产品,它凭借31个高自由度关节布局、自研高性能动力组件及可拓展的顶级算力模组,在仿生运动控制与多场景适配性上实现突破,同时通过标准化设计与成本优化,成为民用级人形机器人领域的技术标杆,完整落地具身智能“感知——决策——执行”三层架构的工程化应用。 图1-4宇树科技H2机器人 H2构建了覆盖视觉、听觉的全方位信息采集能力,为智能决策提供精准输入。视觉感知核心使用全系标配大视场角仿人双目相机,模拟人类视觉原理,可精准捕捉环境三维空间信息、物体形态及色彩细节,无论是室内结构化场景还是户外半开放场景,都能快速完成环境建模与目标定位,为运动避障、任务执行提供视觉支撑。交互方面,搭载阵列麦克风与大功率扬声器,形成完整的语音交互链路,可实现语音指令识别与反馈,适配人机协同场景中的基础沟通需求。同时,全身分布的姿态与力反馈相关传感单元,实时捕捉关节运动状态与交互力数据,为动态平衡控制提供毫秒级数据支撑。 # 保险保障革新:从“通用覆盖”到“场景精准”的具身智能风险护航升级 具身智能产业的规模化落地,其“高技术复杂度、高场景关联性、高价值密度”的核心特性催生了多元化风险,也推动保险领域从传统通用保障向定制化精准护航转型。在技术风险维度,无论是工业场景中精密人形机器人因传感器失灵引发的动作偏差,家庭机器人因OTA升级故障导致的功能瘫痪,还是特种作业机器人受极端环境影响出现的硬件损耗,这些贯穿感知、决策、执行全链路的技术问题,都需要定制化 的设备损坏险与技术故障责任险提供兜底,全面覆盖维修更换成本及衍生的生产中断、服务停滞损失。尤为关键的是,行业发展初期的数据稀缺导致模型泛化不足、仿真与现实场景存在性能差距等隐性风险,要求保险产品在条款设计中深度嵌入技术迭代因子,通过联合第三方技术机构开展设备成熟度评估,实现风险精准定价。 安全风险层面,具身智能机器人与物理世界的深度交互使其面临连锁损害隐患,保险保障需按场景分层细化。工业车间内,机器人操作失误可能引发设备碰撞或人员伤害,需依托高额第三者责任险覆盖财产与人身赔偿;公共服务场景里,景区、机场等场所的巡检机器人若发生故障导致公共设施损坏或游客受伤,产品责任险能切实分散企业赔付压力。针对高危作业机器人,需强化极端环境损失附加险;针对消费级产品,则需细化家庭财产损失保障条款,实现风险与保障的精准匹配。 在法律伦理领域,机器人致人损害后的责任认定(如算法缺陷与人为操作的责任划分)、伦理争议引发的企业声誉损失、数据合规不到位导致的行政处罚等新兴挑战,催生了法律费用保险与声誉损失险的需求。这就要求保险机构联合科研院所、行业协会完善风险评估标准,明确责任界定边界,填补新兴领域的保障空白。 应对上述复杂风险,保险行业需构建“技术协同——场景适配——政策联动”的生态体系。一方面,与科技厂商建立风险数据共享机制,通过分析机器人运行日志优化条款设计,同时反向推动厂商在技术研发中强化安全防护;另一方面,对接产业扶持政策,将保险纳入具身智能产业规范化体系,对创新型企业提供保险补贴,降低技术商业化门槛;同时,联合科研机构开展风险建模研究,预判技术演进带来的风险变化,提前布局针对AI伦理纠纷、多智能体协同事故等新兴场景的保障产品。通过这一系列举措,保险不仅能为具身智能产业兜底风险,更能通过风险管控反向推动技术创新与产业规范化发展,成为连接技术突破与市场应用的重要支撑纽带。 # 1.2 国产大模型的技术崛起与生态构建 # 1.2.1 国产大模型的技术突破与能力演进 2024至2025年,是中国国产大模型经历深刻变革与技术质变的关键时期。在激烈的全球竞争中,国产模型不仅在产品性能和实用性上实现了跨越式追赶,更在技术路径、开源生态和垂直应用上展现出独特的中国路径。本小节将横向梳理国内代表性模型在2024-2025年间的突破性进展,并纵向提炼驱动本轮发展的核心范式转变。 首先是横向扫描,分析主流模型的迭代与差异化突破。为清晰展示国产大模型在2024-2025年间的快速演进,表1-3梳理了四大代表性模型的关键进展与能力定位。 表 1-3 2024-2025 年国内中文大模型关键进展与能力定位 <table><tr><td>模型</td><td>关键版本</td><td>核心突破与性能表现</td><td>战略定位与生态价值</td></tr><tr><td rowspan="2">DeepSe ek</td><td>DeepSeek-V3(2024 年12 月)</td><td>V3 版本以 68.3 分在 2024 年底SuperCLUE 测评中领跑国内开源模型,在语言理解、深度推理等任务上位居国内前三,展现出强大的通用能力。</td><td rowspan="2">“开源王者”与“推理先锋”:坚定不移的开源策略构建了全球影响力;通过 V3 和 R1 系列,完成了从通用模型到专用推理模型的精准能力延伸,为高频、复杂场景提供了解题思路。</td></tr><tr><td>DeepSeek-R1 (2025年1 月)</td><td>R1 版本作为推理模型,在 2025年7 月测评的推理任务中取得66.15 分,成为国内推理领域的标杆,仅次于 Doubao-Seed.1.6- thinking。</td></tr><tr><td rowspan="2">豆包</td><td>Doubao-pro-32k-241215(2024 年12 月)</td><td>2024年底版本在理科任务(72.3分)上表现突出,超越DeepSeek-V3 成为国内第一。</td><td rowspan="2">“智能体技术引领者”:从理科优势出发,快速演进至以智能体为核心的综合性模型。其在新一代模型中展现出的任务规划与工具调用能力,标志着国产大模型在“行动”层面的重大突破。</td></tr><tr><td>Doubao-Seed-1.6- thinking(2025 年7 月)</td><td>2025 年7 月版本实现重大跃升,以68.04分位列国内榜首、全球第四,并在智能体任务上以90.67分领跑全球,在幻觉控制任务中位居国内第一。</td></tr><tr><td rowspan="2">通义千问</td><td>Qwen2.5 系列(2024 年)</td><td>Qwen2.5系列在2024年表现稳健,其72B开源版本是当时国内顶尖的开源模型之一,仅次于DeepSeek-V3。</td><td rowspan="2">“全栈开源生态构建者”:通过覆盖从1.7B到235B参数的全尺寸、全场景模型矩阵,为开发者提供了最丰富的选择,极大地推动了国产大模型开源生态的繁荣与应用普惠。</td></tr><tr><td>Qwen3 系列(2025 年)</td><td>Qwen3系列的235B 大参数思考模型以64.34分在开源榜单中位列第二;其8B、4B和1.7B</td></tr><tr><td></td><td></td><td>小模型在对应级别榜单中遥遥领先,展现出极致的性价比和端侧部署潜力。</td><td></td></tr><tr><td rowspan="2">智谱GLM</td><td>GLM-Plus(2024年)</td><td>GLM-Plus 在 2024 年底是国内综合能力领先的闭源模型之一。</td><td rowspan="2">“稳健的实力派”:持续在通用能力和智能体应用上投入,技术路线稳健,在开源与闭源领域均保持了强劲的竞争力,是企业级应用值得信赖的选项。</td></tr><tr><td>GLM-4.5(2025年)</td><td>GLM-4.5 在 2025 年 7 月测评中以 63.25 分位列开源榜第三,并在智能体任务上以 83.58 分位列国内第二,显示出其在复杂任务执行上的深厚功底。</td></tr></table> 其次是纵向提炼。上述模型的个体突破,共同勾勒出了国产大模型技术演进的整体图景,我们可以从中提炼出三大核心发展趋势,这些趋势也深度契合了全球AI技术的前沿方向。 从“被动应答”到“主动行动”,智能体能力成为新高地。2025年,大模型能力的竞争焦点已从优秀的对话和生成能力,转向能够理解复杂指令、规划并执行任务的智能体。在这一趋势下,以豆包为代表的国产大模型表现突出,在全球Agent任务评测中位居前列,清晰显示出国产技术正从“认知智能”迈向“行动智能”。这为保险业多个关键环节的自动化与智能化升级提供了坚实的技术基础。 如图1-5所示,在智能体Agent任务上,国内外头部大模型整体表现相当,国内TOP5的平均分为79.05分,海外TOP5的平均分为78.33分,两者差距微乎其微。这表明国产大模型在智能体能力方面已经达到了国际先进水平,具备了与海外顶尖模型同台竞技的实力。 SuperCLUE2025年9月中文大模型基准测评智能体Agent任务总分对比(加入补测模型) 图1-5 SuperCLUE2025年9月智能体任务榜单(来源:SuperCIUE) 进一步分析任务场景的表现分布,我们可以发现国产模型在不同场景中的差异化优势。在即时消息、购物系统等日常工具调用场景中,国产模型表现更为出色,总体平均分达到了75分以上。这些场景通常涉及相对简单的工具调用和明确的执行路径,与保险业务中的客户服务、信息查询等场景高度契合。然而,在车辆控制、服务交易、数字计算等需要复杂逻辑推理的场景中,国内外模型的表现都有待提高,这反映出智能体技术在处理复杂数值计算和多步骤逻辑推理方面仍面临挑战。 但是随着交互步数和轮数的增加,模型表现呈现明显的下降趋势。这种趋势揭示了当前智能体技术的主要瓶颈:在长序列任务中保持执行准确性的能力仍然有限。对于保险行业而言,这意味着在部署智能体解决方案时,需要合理设计任务流程,将复杂流程拆解为相对独立的子任务,以确保整体的执行效果。 总的来说,大模型与智能体技术的进步,将直接赋能核保、理赔与客服等核心流程。例如,在自动化核保环节,智能体可自动解析投保资料,完成风险判断与分类;在智能理赔方面,能够理解报案内容,自动收集证明材料,并辅助完成理算与审核;在客户服务中,则可实现高度个性化的交互与推荐,提升服务效率与用户体验。这些应用不仅优化了业务流程,更推动保险运营向更智能、高效的方向深度重塑。 从“技术跟跑”到“生态领跑”,开源战略构筑国产AI护城河。在激烈的市场竞争中,国产大模型普遍采取了“开源抢占生态,闭源实现盈利”的差异化策略。以DeepSeek和通义千问为代表的厂商,通过发布顶尖性能的开源模型,迅速吸引了全 球开发者,构建了强大的生态壁垒。2025年9月的数据显示,国内开源模型的最好成绩已领先海外开源模型近10分。这种繁荣的开源生态不仅降低了技术使用门槛,加速了创新迭代,更在为整个国产AI产业链,从芯片适配到应用开发,注入源源不断活力。 SuperCLUE2025年9月中文大模型基准测评开源模型总分对比(加入补测模型) 图1-6SuperCLUE2025年9月开源模型榜单(来源:SuperCIUE) 如图1-6所示,国内开源模型在整体表现上已全面领先海外同类模型。在开源模型榜单TOP10中,国产模型占据九席,仅有一个海外模型gpt-oss20b以53.05分位列第十。具体来看,DeepSeek-V3.2-Exp-Thinking以62.62分高居榜首,openPangu-Ultra-MoE-718B与Owens3-235B-A22B-Thinking-2507分别以58.87分和57.73分位列第三、第四。这种集体优势为保险行业提供了丰富、可选的国产技术方案。保险公司可根据业务场景灵活选型,如将高精度模型用于理赔决策辅助,轻量化模型用于对话交互,实现资源优化与风险可控的技术落地。 进一步分析技术细节,在数字与科学推理方面,海外开源模型仍具一定优势;但在代码生成、幻觉控制、智能体(Agent)与精确指令遵循等四大关键任务上,国内模型领先优势明显。这种差异化能力与保险实际业务高度契合:高质量的代码生成能力可辅助保险系统开发与流程自动化;更强的幻觉控制能提升核保、咨询环节的答复可靠性;智能体技术能推动理赔自动处理与个性化服务;精确指令遵循则适用于条款解读与合规质检等场景,为保险运营全链路提供技术保障。 开源生态的持续繁荣,不仅加速AI技术创新,更在芯片适配、应用开发、工具链建设等方面为保险行业打下坚实基础。对保险机构而言,国产开源模型提供了自主 可控、成本适宜的技术路径,有助于降低对国外闭源模型的依赖。保险公司可借助这一生态,联合技术伙伴快速构建贴合保险场景的智能应用,如自动化核保平台、智能理赔工单系统、个性化产品推荐引擎等,在提升运营效率的同时,增强行业整体科技韧性与战略安全性。 从“规模优先”到“效能为王”,架构创新与成本控制成为核心竞争力。国产大模型不再盲目追求参数规模,而是聚焦于效能比的优化。一方面,通过广泛采用MoE(混合专家)架构,以更低计算成本实现接近稠密模型的性能;另一方面,小参数模型(如Qwen3系列)在端侧设备上实现“小而精”的高效部署。这种务实的技术路径,为保险业在核保、理赔、客服等高频场景中低成本、高效率地部署AI应用提供了现实可能。 图1-7反映了国内外大模型的性价比,国产模型API价格大多处于0-10元/百万Tokens区间,平均价格仅为3.88元,远低于海外模型20.46元的平均水平,形成显著成本优势。这一优势使得保险公司能够以更低成本处理海量保单文书、理赔资料和对话交互,为大模型在业务系统中的规模化、常态化使用奠定基础。不过也需注意到,国产模型在推理效率上仍有提升空间——国内模型平均答题耗时101.07秒,海外则为41.60秒。这在实时核保、快速理赔响应等对时效敏感的场景中,仍需结合业务特点进行系统优化与流程适配。 图1-7 SuperCLUE2025年9月中文大模型性价比区间分布图(来源:SuperCIUE) 综上所述,2024-2025年间,国产大模型通过架构创新实现了效能突破,通过聚焦智能体技术开启了从“认知”到“行动”的能力升维,并通过激进的开源生态战略,在全球AI格局中构建了独特的竞争优势。这三股趋势合力,不仅显著提升了国 产大模型的综合竞争力,更为其深度赋能保险等垂直行业,提供了坚实、可控且极具成本效益的技术底座与丰富的实践路径。 # 1.2.2 国产AI芯片与算力基础设施的协同发展 在中美贸易战持续深化的背景下,美国对华尖端芯片出口管制不断升级,这场科技博弈正在深刻重塑全球算力格局。面对H100、A100等高端芯片的禁运压力,中国国产AI芯片产业在逆境中实现了跨越式发展。根据2025年度国产AI芯片产业白皮书数据显示,整个中国智能算力规模在2024年保持了 $43\%$ 的高速同比增长,这为国产芯片提供了广阔的替代空间。在外部技术封锁与内部自主创新的双重驱动下,国产芯片产业已完成从“技术可用性验证”到“生态竞争力构建”的战略转型,华为昇腾910B、沐曦曦云C600等产品在算力性能上已能对标国际主流产品。这种转变不仅体现在技术参数的提升,更深刻地反映在产业协同模式的创新中。 从初期的单点技术突破与替代策略,升级为以系统重构和生态协同为核心的“换道超车”战略。产业界正在通过软硬件协同、算力基础设施整合与场景化落地的多维创新,构建起具有中国特色的算力产业体系,为数字中国建设提供坚实的算力基座。在这个过程中,以华为、寒武纪为代表的龙头企业通过全栈整合与生态开放的双重路径,正在重新定义中国在全球算力竞争中的角色与地位。 在硬件性能与软件生态的深度协同方面,国产AI芯片展现出前所未有的创新活力。2025年度国产AI芯片产业白皮书的产业调研数据显示, $51\%$ 的从业者认为国产AI算力平台应优先发展支持千亿参数训练的GPU集群,这一选择凸显了产业对规模化算力能力的迫切需求。如表1-4所示,2025年国产主流AI芯片的硬件性能竞争力很强,沐曦发布的曦云C600GPU实现FP32算力25TFLOPS,华为昇腾910B达到FP16算力320TFLOPS,这些突破性产品通过7nm制程与Chiplet集成技术,大幅提升了算力密度与能效。这意味着保险机构能够以更低成本、更高效率地部署智能核保、理赔反欺诈等需要大规模算力支撑的核心业务系统,为行业数字化转型注入强劲动力。 表 1-4 2025 年主流国产 AI 芯片性能对比 <table><tr><td>芯片型号</td><td>算力性能</td><td>工艺制程</td><td>功耗</td><td>关键特性</td></tr><tr><td>华为昇腾 910B</td><td>256-320 TFLOPS(FP16)</td><td>7nm+EU V</td><td>310W</td><td>达芬奇架构,95%集群效率,全栈AI生态</td></tr><tr><td>寒武纪思元 590</td><td>256 TFLOPS(FP16)</td><td>7nm</td><td>250W</td><td>MLU-Link 多芯互联</td></tr><tr><td>沐曦曦云 C600</td><td>25 TFLOPS (FP32)</td><td>7nm</td><td>-</td><td>全自研 IP,万卡集群</td></tr><tr><td>地平线征程 6</td><td>560TOPS(INT8)</td><td>-</td><td>-</td><td>纳什架构,ISO 26262 认证</td></tr></table> 然而,硬件性能的突破只是产业发展的一个维度,软件生态的完善同样至关重要。调研显示,软件生态以 $31\%$ 的占比被视为仅次于算力密度的第二大瓶颈。对保险行业而言,软件生态的成熟度直接影响着AI技术在业务场景中的落地效果。产业界通过加快自主工具链完善、推动与主流开发框架深度适配的双轮驱动策略,有效降低了技术应用门槛。特别是 $34\%$ 的从业者将PyTorch等框架的无缝迁移能力视为云端芯片的核心竞争力,这一特性使得保险科技团队能够更顺畅地将现有AI模型迁移至国产算力平台,保障业务连续性与系统稳定性,加速智能客服、精准营销等应用的规模化部署。 在技术创新层面,软硬件协同催生的突破性解决方案为保险业务效率提升开辟了新路径。稀疏计算通过硬件层实现“无效操作跳过”,显著提升计算效率。华为与清华大学合作的稀疏矩阵存储专利、寒武纪的神经网络稀疏方法专利,都是算法与硬件协同设计的典范之作;FP8精度作为下一代数据格式,正在引发产业链的协同变革;DeepSeek-V3模型率先采用FP8精度,而摩尔线程的MTT S5000板卡快速跟进实现量产,这种“模型定义硬件,硬件支撑模型”的互动模式,彰显了产业生态的良性发展。这些技术创新共同构成突破“计算墙”、“内存墙”的系统性方案,直接赋能保险业的高频业务场景。例如,在实时核保与理赔处理中,高效计算能够大幅缩短响应时间;在精算建模与风险预测中,更高精度的数据格式可提升模型准确度。48%的从业者将Chiplet异构集成视为最具潜力的技术路径,23%的专家看好存算一体发展,这些技术方向都将为保险业处理海量非结构化数据、构建复杂风控模型提供更优的技术选择。 国产算力的竞争格局已从“单卡性能”比拼全面升级为“系统级集群能力”的较量,这一转变对保险机构构建企业级AI平台具有重要战略意义。调研数据显示, $43\%$ 的从业者将万卡级以上集群扩展性视为云端AI芯片的核心竞争力。华为昇腾AI集群实现1.6万卡互联,燧原科技、昆仑芯等厂商的万卡级集群技术,证明了国产算 力基础设施已具备支撑工业级大模型训练的能力。对大型保险集团而言,这意味着可以依托国产算力集群,构建企业专属的大模型平台,在保障数据安全与合规的前提下,实现从核保、定价到理赔、服务的全业务流程智能化升级,同时有效控制技术投入成本。 在应用落地层面,国产AI芯片清晰的场景策略为保险业提供了可借鉴的实施路径。政府与金融数据中心(29%的从业者认为)是国产芯片突破最大的领域,这些行业在数据安全、系统可靠性方面的严格要求与保险业高度相似。华为昇腾、昆仑芯等厂商在关键行业树立的标杆案例,为保险机构选择技术路线提供了重要参考。绿色算力基础设施(20%的从业者认为)形成的独特竞争优势,则有助于保险机构在满足业务增长需求的同时实现节能减排目标。保险业可以充分借鉴这些行业的成功经验,结合自身业务特点,制定稳妥可靠的AI算力建设规划,推动数字化转型行稳致远。 国产AI芯片产业已跨越“单点替代”的初级阶段,进入以“系统重构与生态协同”为标志的产业跃迁期。对保险行业而言,这一转变意味着能够获得更加成熟、完整的技术解决方案。产业通过软硬协同攻克算力瓶颈,通过系统级集群构建竞争力,并通过清晰的场景策略实现规模化渗透。这一深刻的产业升级,正直接推动国产芯片在市场端实现份额的快速提升与普及度的飞跃,如下文市场份额的分析,证明国产芯片最终会在关键业务系统中成为“必用”的选择,为保险业等关键行业的数字化转型提供全栈式、自主可控的坚实算力基座。 国产AI芯片正迎来市场份额与渗透率的快速提升,展现出强劲的发展势头。根据IDC的统计,2024年,我国自主研发的AI芯片在国内市场的份额已攀升至 $30\%$ ,并预计在2025年突破 $50\%$ 大关,实现历史性跨越。这一增长具有坚实的量化基础:国际投资研究机构伯恩斯坦的报告显示,中国国产AI芯片的销售额将从2024年的约60亿美元猛增至2025年的160亿美元,市场份额随之从 $29\%$ 提升至 $42\%$ ,增速高达 $112\%$ 。与此同时,在具体的AI服务器市场,外购芯片的比例正持续下降。根据TrendForce集邦咨询的分析,中国AI服务器市场中,外购英伟达、AMD等芯片的比例将从2024年的约 $63\%$ 下降至2025年的 $42\%$ ;相应地,在政策支持下,中国本土芯片供应商的占比预计在2025年提升至 $40\%$ ,几乎与海外芯片平分秋色。 在众多国产芯片中,华为昇腾与寒武纪的表现尤为突出,已成为市场普及的领军力量。华为昇腾凭借多年的技术积累和生态优势,已成为高端市场的主要替代力量。其昇腾910芯片已经进入国内互联网厂商的大型AI模型训练环节。在商业落地上,华为昇腾的云服务在2025年第一季度订单增长达到 $120\%$ 。此外,灼识咨询的报 告指出,华为在NPU驱动的AI推理芯片领域市占率高达 $74.9\%$ ,2024年出货量达64.4万片,显示出在细分市场的绝对统治力。寒武纪则实现了显著的业绩逆转和市场突破。2025年半年度报告显示,寒武纪上半年营业收入28.81亿元,同比增长 $4347.82\%$ 。其旗舰产品思元590芯片的性能已能达到NVIDIA A100的约 $80\%$ 目前已导入字节跳动、阿里云等头部云服务商,为搜索业务、广告推荐系统提供算力支撑。2024年,寒武纪芯片的出货量从2万片猛增至15万片,增速达 $650\%$ 2025年第二季度月出货量稳定在3-4万颗,是其市场普及度快速提升的有力证明。总体而言,在互联网巨头积极适配国产芯片、共同构建多元化供应链的战略推动下,国产AI芯片正沿着“可用-好用-必用”的良性循环加速前进。 # 1.2.3 国产大模型垂直应用深度分析:保险领域的变革 人工智能大模型正深度重塑保险业的价值链,并在与医疗\金融、法律等领域的交叉融合中催生创新应用。2024至2025年,保险业通过引入大模型技术,在精准风控、合规管理、健康服务等环节实现了从“单点赋能”到“生态协同”的跨越,逐步构建起智能化、场景化、可信赖的新一代保险服务体系。 # 医疗+保险:健康管理与理赔服务的智能化融合 2024至2025年,人工智能大模型技术在医疗与保险交叉领域取得突破性进展,通过整合多源健康数据、优化核保理赔流程、创新健康管理模式,推动保险行业从“事后理赔”向“健康管理”的战略转型。 智能诊疗与精准定价。医疗大模型在专科疾病诊断领域的突破,为保险产品的精准定价和风险控制提供了科学依据。陆军军医大学新桥医院与重庆大学联合研发的肺部感染专病大模型,整合超过1.2万例高质量临床病例,在诊断准确性和治疗方案推荐合理性上,较先进通用大模型平均性能提升约 $47\%$ 。该模型通过对临床表现、影像学特征和实验室检查结果的深度分析,建立了精准的疾病严重程度评估体系,为保险公司开发肺部感染专项保险产品提供了可靠的定价基础。 智能审核与效率提升。医保领域的智能化实践为商业保险提供了可复用的技术路径。安徽省淮南市医保局应用的医保慢病审核AI智能体,实现了“AI审核+专家质控”的新型工作模式。该系统自2025年9月上线后,在恶性肿瘤慢病申请审核中,人工审核工作量减少近 $60\%$ ,整体审核周期压缩 $40\%$ 以上。江苏省通州区医保中心的医保报销AI智能审核系统,通过票据自动扫描和识别技术,将审核效率提高 $50\%$ 人工复核量降低近 $70\%$ 。这些实践表明,智能审核技术可有效提升保险公司的运营效率,降低管理成本。 保险产品创新与个性化服务。对外经济贸易大学保险学院联合北京保珏科技于2025年10月发布的“疾病预测与重疾险精准推荐大模型”,填补了商业重疾险领域专业大模型的空白。该模型创新性地构建了以“赔付宽松度”为核心的评价体系,通过量化评估保险条款中与疾病相关的范围、阶段、病情轻重等维度信息,并结合临床医学诊断知识图谱,利用图卷积神经网络(GCN)输出量化结果,为消费者选择重疾险产品提供了客观依据。该模型的技术架构整合了多重创新要素。其疾病预测模块通过整合多个高准确度专病小模型,以累积风险相对倍数(CRR)形式输出预测结果,为风险评估提供直观参考。在精准推荐环节,模型基于多目标最优解算法,融入与赔付相关的多个修正因子和功效函数,有效实现了供需两端的精准匹配。实践表明,该模型已收录全行业所有重疾险产品(6500+)并保持每周持续更新,显著提升了消费者面对复杂重疾险产品时的选择能力,推动了保险产品优化与服务提升的良性循环。 自动审核与欺诈识别。数坤科技的“数坤坤”大模型在诊断任务中表现出高一致性与精准度,其在单一疾病的诊断准确率已达到 $95\%$ 以上。专病模型的发展进一步优化了风险定价,如陆军军医大学的肺部感染专病大模型将诊断准确性提升约 $47\%$ ,为保险公司开发特定疾病产品提供了科学依据。 # 金融+保险:智能风控与产品创新的双轮驱动 在金融与保险的交叉领域,大模型通过整合多维数据与行业知识,显著提升了风险定价与反欺诈能力的精准度。在农业保险等复杂场景中,大模型进一步融合卫星遥感、气候数据与市场动态,构建全产业链风险预警体系。工商银行自主研发了农业卫星遥感AI识别技术,运用业内领先的卫星遥感影像智能识别算法,打造了作物分类、长势监测、产量预估、灾害预警、渔排监测等五类农业场景监测模式,为银行信贷准入、尽职调查、货后监测预警提供及时、客观、真实的数据来源,为保险公司的动态定价提供依据。此外,金融监管总局于2025年9月发布《关于推动健康保险高质量发展的指导意见》,明确要求保险公司应用人工智能与大数据技术优化承保理赔流程,提升产品开发与费率厘定的科学性,从政策层面强化了技术落地的必要性。 市场实践表明,金融级大模型的应用效果显著。根据穆迪对亚太地区五大市场的调研,超过 $80\%$ 的保险公司通过AI提升了运营效率,其中 $57\%$ 的机构进一步优化了客户体验。在中国市场,众惠相互保险公司通过AI解析非结构化医疗记录,将核保责任判断时间缩短至5分钟内,准确率超 $90\%$ ,效率提升 $80\%$ 以上。 # 法律+保险:合规治理与责任保障的协同演进 最高人民法院在 2024 年 11 月发布的 “法信法律基座大模型” 标志着国家 级法律人工智能基础设施的诞生。该模型基于最高人民法院“法信”平台采集的3.2亿篇、3.67万亿字高质量专业标注语料构建,融入了包含18万法律知识体系编码的“法信大纲”,是目前国内法律行业最具权威性的AI基础设施。这一模型不仅在技术上实现了法律语义理解、逻辑推理、融合搜索和内容生成等核心能力,更已在深圳法院人工智能辅助审判系统1.0版和“法答网”“人民法院案例库”库网融合检索系统中投入实际应用,有效提升了审判工作的质量和效率。保险公司可借助该模型实现合同智能审查与理赔纠纷的快速仲裁,例如自动分析案卷材料、生成争议焦点摘要,并缩短纠纷处理时长。 在责任保障方面,AI技术本身的风险也催生了新型保险产品。中国人保财险推出了全国首款生成式人工智能内容侵权责任保险,为科技公司的大模型生成内容可能涉及的著作权、肖像权与名誉权侵权提供经济赔偿与法律费用保障。此举不仅分散了科技公司的运营风险,也为保险业开辟了新的市场空间。该险种已在青岛、北京、无锡落地,为新奇智科技集团股份有限公司、无锡雪浪数制科技有限公司等多家科技公司分散科技公司面临的侵权风险,其中无锡雪浪数制科技有限公司获得的保单保额达70万元。 法律大模型的另一重要应用是提升保险合约的合规性与透明度。通过自然语言处理技术,保险公司能够将复杂的保单条款转化为可视化报告,帮助客户精准把握保障范围与风险水平。大家人寿与中国银保信合作的智能保单检视服务正是此类应用的典范,它有效降低了产品不适配风险,并推动保险代理人从销售向顾问角色转型。 # 实施路径与行业挑战 保险机构在大模型应用上正根据自身规模采取差异化策略。资源雄厚的大型险企倾向于自研或深度定制,以构建核心能力。例如,阳光保险的大模型和智能体建设以涵盖保险业务全流程为核心竞争力,成功构建了涵盖费差、理赔、风险透视、客户经营等方面的管理机器人项目。中国人保发布了自主研发的“数智灵犀”大模型,通过私有化训练调优形成企业级解决方案,并将其应用于智能客服、代理人赋能等场景。太保科技则构建了“算力-数据-平台”一体化的基础设施,支撑30多个业务场景,其在健康险理赔审核中应用AI后,判责准确率提升至 $93\%$ 。对于中小型险企,则更依赖轻量化、聚焦高回报场景(如智能客服、自动化理赔)的策略。它们可通过借助开源模型(如DeepSeek)降低技术门槛,或直接采购商业化的垂直领域模型产品,以快速见效。 然而,行业融合应用也面临多重挑战。首先,数据孤岛与技术标准不统一是核心障碍。在部分地区的保险业中,碎片化的风险标的信息、环境数据、客户信息等信息 存储于纸质文件、Excel 表格及互不兼容的软件中,缺乏高质量的结构化数据,使得 AI 模型难以训练和应用。其次,算力成本与模型透明度构成压力。训练专业模型成本高昂,同时其决策过程的“黑箱”特性可能引发合规争议与用户信任问题。此外,人才短缺与文化阻力同样不容忽视。员工可能担忧 AI 取代工作岗位,且企业常面临既有的系统升级与复合型人才匮乏的困境。监管层面也已关注到因技术依赖可能产生的集中度风险与决策趋同风险,并强调需要通过多元化市场结构与监管框架来应对。 展望未来,大模型在保险业的应用将持续深化并呈现三大趋势。其一,技术融合将更为深入。多模态大模型能同时解析文本、图像、语音等多维信息,从而全面提升复杂场景的处理能力。例如,平安的“鹰眼系统”通过融合AI、卫星遥感、物联网等技术,实现了从灾前预警到灾后理赔的全周期风险管理。其二,治理框架将加速完善。面对AI应用带来的监管与责任认定新课题,保险公司需要主动参与行业标准制定。行业报告也建议企业根据自身发展战略,动态调整并选择合适的大模型建设模式。其三,生态协作将成为关键。保险公司需要加强与科技公司、高校及研究机构的合作,以弥补自身在数据、技术或人才方面的短板,共同推动创新解决方案的落地。 # 1.3 深度思考模式的突破 # 1.3.1 推理能力的架构级跃迁:从链式思维到自洽性认知 # 当思考方式发生结构性改变 人工智能的真正跃迁,从来不是单纯的算力膨胀或参数扩张,而是思考方式的改变。过去的模型像是擅长演算的机器,遵循线性的推理链条一步步前行。而如今的大模型,正在尝试以更复杂、更内化的方式理解问题,并在推理过程中实现自我协调、自我验证——这就是从“链式思维”迈向“自洽性认知”的标志性转变。对保险行业而言,这种能力不再只是技术层面的突破,而是让智能系统真正能理解、重构并参与复杂业务逻辑的开始。 混合专家模型(Mixture of Experts,MoE)的出现,是这一转折的关键。2020年,谷歌Gshard首次将MoE引入Transformer架构,构建了分布式并行计算框架。这一突破开辟了MoE与Transformer结合的新路径,推动技术进入规模化发展阶段。从2020年Google Gshard实现1.6万亿参数模型,到2021年SwitchTransformer展示对话系统潜力,再到2023年MistralAI发布商用MoE模型Mixtral8×7B,以及2024年DeepSeek等开源项目推动技术普及,再至2025年GPT-5的问世,将MoE推向了新的层次。它采用稀疏混合专家架构与动态路由协同机制,在保持庞大参数规模的同时,显著提升了计算效率与推理深度。更 重要的是,这种架构实现了“认知弹性”——即大模型可以根据问题复杂度,在“快思考”和“慢思考”之间自由切换。 MoE 模型的基本架构包含两个关键组件:一是专家网络,通常是多个独立的前馈神经网络(Feedforward Neural Network, FFN),每个专家专门处理特定类型的输入。在 Transformer 架构中,MoE 层会替代标准的 FFN 层。二是路由机制,一个可学习的门控网络(Gating Network)决定每个输入应该分配给哪些专家。该门控网络通过 softmax 函数计算输入与各专家之间的分配权重,实现动态稀疏激活,仅调用最相关的少数专家参与计算,显著降低推理成本。这种机制在保持模型总参数规模的同时,大幅提升了计算效率与训练吞吐能力,尤其适合处理多模态、多任务的复杂场景。 # 当智能架构学会选择与反思 MoE架构的核心并不在“多”,而在“选”。与传统稠密模型不同,它不是让所有模块同时工作,而是像保险公司的决策系统那样,根据问题类型自动匹配最合适的专家。例如,在理赔场景中,面对涉及人身伤害的复杂案件,系统会自动调用法律条款专家、医疗风险专家和案例对比模块;而面对简单的保费计算请求,则只会激活少量的计算模块。这种稀疏激活机制让模型既保持了庞大的知识容量,又显著降低了计算成本。 GPT-5的推出,让这种思维机制进入可操作的商业阶段。北京时间2025年8月8日,OpenAI通过线上发布会正式推出GPT-5。GPT-5全系主要包括三种模型:GPT-5、GPT-5mini和GPT-5nano。如表1-5所示,模型总参数高达3至5万亿,但每次推理只激活其中的2000至3000亿参数。更重要的是,它不再人为区分推理模型、多模态模型和Agent系统,而是将这些功能整合为一个统一的智能架构。模型能实时识别输入任务的类型与复杂度,自动决定调用的路径与模块,实现了动态计算资源分配。这种认知弹性的出现,带来了推理模式的革命。过去的大模型推理更像“流水线作业”,信息顺序流动,缺乏反馈与反思。而在GPT-5的架构下,推理过程开始呈现出“循环思维”的特征。模型会根据中间推理结果重新调整路线,检验前置假设是否成立,在不同推理路径之间形成一种“共识机制”。在技术层面,这意味着推理过程开始具备自我修正能力;在认知层面,则意味着大模型第一次具备了“判断的自洽性”。 表 1-5 GPT-5 提升亮点 (来源:《GPT-5 与国内头部模型厂商主要能力对比》) <table><tr><td>能力维度</td><td>GPT-5 提升亮点</td></tr><tr><td>基础架构</td><td>稀疏混合专家架构(MoE),总参数约3-5万亿,激活参数2000-3000亿 动态路由机制,512专家模块按需激活</td></tr><tr><td>数学推理</td><td>AIME25 竞赛准确率 94.6%(无工具解题) GPQA 科学测试得分 88.4%(Top10%博士生水平)</td></tr><tr><td>编程能力</td><td>SWE-bench 解决率 74.9%(真实工程问题) 修复复杂 API 问题速度比人类快 4 倍</td></tr><tr><td>多模态理解</td><td>MMMU 多模态测试得分 84.2%(支持实时视频分析)</td></tr><tr><td>上下文长度</td><td>支持千万级 Tokens 长上下文,单轮任务完成率提升 30%+</td></tr><tr><td>幻觉控制</td><td>事实错误率较 GPT-4o 降低 80% 安全训练机制(Safe Completions)拒绝不可靠回答</td></tr><tr><td>推理延迟</td><td>0.45秒(基准测试响应)</td></tr></table> # 当智能系统走入业务逻辑 GPT-5 的动态路由机制,本质上是将思维链(Chain-of-Thought,CoT)的“步进推理”、自洽性(Self-Consistency)的“共识决策”与思维树(Tree of Thoughts,ToT)的“多路径探索”等能力,封装成了一个个可被按需、高效调用的“专家模块”。面对一个简单查询,路由器会直接激活“快思考”专家,实现 CoT 般的流畅输出;而面对保险条款冲突检测这类复杂任务,它则会智能地“组装”一个临时专家团队——可能包含逻辑推理、语义消歧、案例比对等模块,协同进行一场高效的、内化的 ToT 式深度思考。这种架构级的融合,使得模型在不显著增加延迟的前提下,获得了应对极端复杂逻辑链条的能力,为保险行业那些依赖长链条、高密度逻辑的复杂任务提供了全新的解决方案。 在保险条款冲突自动检测中,综合性保险产品往往包含数百条相互关联的条款,涉及责任免除、理赔条件、特殊约定等多个复杂模块。传统基于规则或单一模型的方法难以全面捕捉条款间的隐含矛盾和逻辑冲突。而在GPT-5类架构的技术支持下, 动态路由机制能够依据输入内容自动调度不同的专家模块,例如,当系统识别到“意外伤害医疗责任”与“职业类别限制”等可能存在冲突的条款时,路由器会智能激活责任逻辑推理专家与职业风险画像专家,进行深度的交叉验证;如果发现条款中存在“合理且必要的医疗费用”等模糊表述,系统将进一步调用语义消歧专家与司法判例分析专家,结合历史理赔数据,综合判断其在具体实践场景中的解释一致性和适用边界。整个过程不再是简单的单向链式推理,而是形成一个完整自洽的认知闭环,确保所有条款之间保持逻辑一致性,有效避免冲突和遗漏。 在核保风险评估这一关键业务环节中,系统可以依据投保人提供的健康问卷、体检报告、职业信息等多源异构数据,动态组装一个专门化的临时风险评估微型模型,依次调用医学解读专家、行业风险统计专家、政策合规性校验专家等多个专业模块,实现从原始数据输入到最终风险等级输出的无缝推理链条,大幅降低因逻辑断裂或信息缺失导致的核保误差。 更深层次的意义在于,推理架构的进化让大模型开始具备“业务逻辑思维”。它不再只是计算规则的执行者,而是能够理解逻辑之间的相互依赖与冲突,主动建立推理链、审视矛盾点,并在不同解释之间寻找最合理的平衡。这正是“深度思考模式”的核心所在——让机器拥有类似资深保险专家的思维方式:能从复杂的条款、数据与事实中抽象出一致的逻辑,并据此形成稳定判断。 未来,当混合专家模型与动态路由机制进一步普及,智能系统将不再依赖单一算法逻辑,而是以多层自洽的认知结构驱动业务判断。对于保险企业而言,这不仅意味着效率的提升,更是思维模式的升级——从数据驱动的分析工具,走向能在高复杂度场景中保持逻辑清晰、认知稳定的“智能合作者”。 # 1.3.2 偏好对齐的机制级进化:从 RLHF 到 DPO/GRPO 与可验证强化 # 当AI开始学会判断“什么是对的” 大语言模型的成长,不止于思考更深,还在于判断更准。对保险行业而言,这一点至关重要——因为决策的核心,不只是答案,而是“答案是否符合规则、符合价值”。而这正是偏好对齐技术的意义所在:让模型学会理解人类的意图、价值和约束,让它的思考更接近人类的判断逻辑。 自2022年以来,基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF)成为支撑模型安全性与有用性的核心方法。然而,随着模型复杂度的上升与生成能力的指数级提升,传统RLHF体系在数据成本、训练稳定性、可解释性等方面的局限日益突出,这种基于RLHF体系的大模型训练更像一种 “奖惩式教育”。它能让 AI 表现得“更像人”,却未必“更懂人”。训练过程不仅成本高、效率低,还容易出现“奖励黑客”——模型学会取悦评审,却忽视事实与逻辑。2023-2025 年间,以直接偏好优化(Direct Preference Optimization,DPO)和组相对偏好优化(Group Relative Preference Optimization,GRPO)为代表的新一代“直接偏好优化”路线逐渐取代 RLHF 的部分功能模块,形成了偏好对齐的“机制级进化”。其核心特征在于:跳出奖励模型(Reward Model,RM)依赖,回归人类偏好的直接建模,同时在算法层面实现更高的训练稳定性与数据利用效率。这种演进,使得大模型能够更稳健地体现人类意图,也推动了模型在推理、问答、决策生成等复杂任务中的可验证认知能力跃升。 # 当机制从奖惩走向自洽 传统 RLHF 体系通常包括三个阶段:一是监督微调(Supervised Fine-Tuning, SFT)阶段,通过高质量的示范数据对模型进行有监督训练,让它初步学会按照人类的方式回答问题;二是奖励模型(RM)训练,训练一个奖励模型根据人工对回答的排序,学习给不同输出打分;三是强化学习优化,利用这个奖励模型,通过近端策略优化算法(Proximal Policy Optimization, PPO)进一步调整模型,使其生成更符合人类偏好的内容。尽管这个方法有效,但也带来了一些挑战:比如奖励模型需要大量人工标注,成本很高;PPO 的梯度高方差与 KL 散度约束不敏感性质,使训练过程不够稳定;有时模型还会钻奖励系统的空子,追求高分却偏离了真实意图。 为此,2023年提出的DPO方法带来了一种更直接的解决方案。它跳过了奖励模型和强化学习的复杂流程,直接基于偏好对(preferred vs.dispreferred)训练模型参数,即利用“好答案”与“差答案”的对比数据来训练模型。达成一种直接偏好优化的简化与自洽。这种方法不仅简化了流程,也提高了训练效率和稳定性。同时,由于DPO直接作用于语言建模损失,其输出分布更平滑、收敛更快,在实际应用中广泛取代了传统RLHF的第二与第三阶段。 2024年,GRPO方法进一步拓展了这一思路。它不再局限于两两比较,而是让模型在一组候选答案中学习相对排序。这样做不仅提升了训练稳定性,也提高了数据利用效率——特别是对小样本与高维输出任务表现尤为显著。GRPO的理论框架在2025年上半年得到形式化证明,研究表明其可被视为DPO在多样本相对损失下的推广形式,形成了“直接-组相对-层级偏好”的连续谱。 除DPO与GRPO外,近年来还涌现出其他值得关注的优化方向。卡尼曼-特沃斯基优化(Kahneman-Tversky Optimization,KTO):将行为经济学中的“损失厌恶”与“风险敏感性”机制引入偏好建模,使偏好优化更贴近真实人类决策心理; (Reinforcement Learning from AI Feedback, RLAIF): 以模型生成的偏好数据替代人工标注,大幅降低成本并提高数据规模可扩展性;分段奖励与可验证反馈:将长文本拆分为多段进行细粒度评估,支持多阶段奖励回传。这些方法共同构成了偏好对齐技术的“强化反馈体系2.0”,标志着对齐训练正从经验驱动走向可验证与自演化机制。 # 当判断逻辑走向可信与自证 偏好优化范式的演进,不仅解决了传统 RLHF 的算力与稳定性瓶颈,也在模型能力层面带来了三大跃迁。一是训练与推理的高效统一。DPO/GRPO 的端到端可微结构减少了参数冻结与采样开销,使单次训练吞吐率提升 3-10 倍。同时,由于训练过程无须奖励模型推理,整体延迟显著降低。例如在同等 GPU 预算下,DPO 微调模型的有效 token产出比 PPO 提升 1.8 倍以上。二是模型稳定性与泛化性的提升。GRPO 的组内相对学习机制有效抑制了极端样本放大问题,改善了模型在多轮对话与复杂生成任务中的一致性。其显式 KL 约束还使模型在保守性和创新性之间保持可控平衡,为多领域适配提供了可迁移基础。三是面向“可验证推理”的强化机制。2025 年初,DeepSeek 团队提出的 DeepSeek-R1 与 R1-Zero 模型首次实现了以可验证奖励为核心的强化学习体系:R1 模型结合 GRPO 与可验证奖励函数,实现了数学与逻辑任务的高精度推理;R1-Zero 更进一步,完全摒弃人工偏好与奖励模型,仅依赖“规则型正确率”与“自一致性”奖励,在 AIME、MATH 等基准上超越多数闭源模型。这一进展标志着偏好对齐已从“主观偏好”转向“验证客观性”,使模型在科学、金融等高精度场景中具备更强的推理可靠性与事实一致性。 随着偏好对齐技术进入规模化应用阶段,数据质量与评估体系已成为决定模型性能的核心要素。要构建一个高质量的大模型,不仅需要先进的算法,更需要一套科学完善的评估标准。当前,行业普遍采用五大关键维度来评估模型输出的质量:任务相关性、内容正确性、回答实用性、安全合规性、逻辑一致性。配合AlpacaEval2.0、InstructionEval等开源评测工具,开发者能够在“训练一评测一优化”的循环中持续改进模型,形成良性的发展闭环。 在数据层面,偏好优化的效果很大程度上取决于数据的质量和覆盖面。2025年,Jack Lanchantin等提出了创新的数据策略:通过“合成数据与人工标注相结合”的方式,以及在组内重复利用优质样本的方法,有效提升了稀缺领域的训练数据质量。同时,许多机构开始采用RLAIF生成初始偏好,再由专家进行复核,从而显著降低成本且保持可靠性,即“AI初步标注+专家复核”的工作流程。这种方法在保证质量的同时,显著降低了成本投入。 在保险领域,偏好对齐的核心价值不在于直接生成文本,而在于约束模型行为的合规性与一致性。以DPO/GRPO为核心的对齐机制,为保险行业的智能应用提供了三类轻量化融合路径:一是条款生成与一致性校核,通过分段偏好学习与可验证奖励,模型可在条款起草时自动检测逻辑冲突与表述歧义,实现“自对齐”生成。二是核保问询的合规优化,模型可被对齐于“安全拒答”偏好,即在无法提供确证信息时,生成规范化的拒绝答复,降低合规风险。三是理赔解释的证据链构建,将可验证推理机制嵌入理赔决策流程,生成带有推理链与引用证据的说明文本,增强用户信任度与监管可审计性。这类融合并非将保险场景作为算法主目标,而是利用技术跃迁成果提升行业特定任务的稳健性与合规性。 综上所述,偏好对齐技术正在从以人类反馈为中心的“外部对齐”走向以规则与自验证为核心的“内部自洽”。未来的智能保险生态中,对齐不再意味着“让机器听话”,而是“让机器有判断力”。这种机制级进化,为大模型在高风险行业(如金融、保险、医疗)中的可控应用奠定了技术基础,正在让大模型从“执行系统”成长为“可信智能”,也让整个行业开始从“结果导向”转向“过程可信”的新阶段。 # 1.3.3 多模态融合的认知架构重构:跨模态对齐与语义统一 # 当机器开始“看懂世界” 如果说语言模型让机器学会了“理解文字”,那么多模态模型让它开始“看懂世界”。多模态大模型的发展不仅仅是单一的技术进步,更是机器认知边界的重大拓展。如图1-8 多模态大模型发展历程所示,从2020年至2025年,多模态大模型在架构设计、对齐机制与应用范式上经历了根本性的重构与升级,其核心突破在于实现了跨模态的语义对齐与统一表示,从而为包括保险在内的复杂行业提供了处理“图文音”多源异构数据的强大技术底座。 # 多模态大模型发展历程 2020-2025年关键技术演进 # Vision Transformer (ViT) Google提出ViT模型,证明Transformer架构适用于图像处理,为多模态统一架构奠定基础。 图像块序列化 视觉Transformer 统一架构 # CLIP模型革命 OpenAI发布CLIP,通过4亿图文对的对比学习,开创多模态预训练新纪元。 图文对比学习 零样本分类 跨模态理解 # 文生图三巨头爆发 DALL-E2、Midjourney、StableDiffusion相继发布,引爆AIGC创作浪潮。 扩散模型 商业化应用 AIGC元年 # 大模型多模态化 GPT-4V和Gemini发布,多模态能力正式整合到大型语言模型中。 原生多模态 视觉理解 多模态对话 # Sora视频生成突破 OpenAI发布Sora,实现60秒长视频生成和物理规律模拟,AI视频生成达到新高度。 长视频生成 物理模拟 视频多模态 # 实时多模态交互 GPT-4o图像生成、Gemini 2.5 Flash等模型持续突破,实现实时交互和高保真生成。 实时交互 高保真生成 统一架构 图1-82020-2025多模态大模型发展历程 2025年9月24日,阿里云在云栖大会上正式发布Qwen3-VL视觉语言模型,这是Qwen系列迄今为止最强大的多模态模型,其统一感知架构(Uni-Perceiver)的核心设计理念是将不同模态的输入映射到统一的语义空间,实现真正的“多模态一体”深度理解。在跨模态嵌入层设计中,Qwen3-VL采用了多项关键技术:视觉编码器与语言模型的深度融合使用VisionTransformer作为视觉编码器,将图像切分为patch序列并编码为视觉token,这些视觉特征通过一个位置感知的视觉语言适配器与语言模型的文本特征进行交叉注意力融合。统一的输入输出接口设计将图像、文本乃至可能的音频输入统一表示为token序列,采用相同的Transformer解码器进行生成。三阶段训练流程优化通过预训练、多任务预训练、监督微调的渐进式学习,使模型从通用视觉语言基础能力平稳过渡到特定任务的精细化适配。 # 当多模态智能各显神通 除了统一感知架构,业界还存在其他具有代表性的模态对齐范式,下表1-6各自展现了不同的技术路径与设计哲学:Qwen3-VL代表“深度融合”派,它追求模态之间的彻底整合;CLIP2.0+走“对比学习”路线,通过成千上万的图文匹配样本,让 模型自己总结视觉与语言的关联规律;而Flamingo3则擅长“快速适配”,通过门控交叉注意力机制,使模型在少样本场景下也能迅速理解图文关系。 表 1-6 其他模态对齐范式对比表 <table><tr><td>特性\类别</td><td>Qwen3-VL</td><td>CLIP 2.0+</td><td>Flamingo 3</td></tr><tr><td>架构类型</td><td>统一感知架构</td><td>双流对比学习架构</td><td>冻结语言模型+门控交叉注意力机制</td></tr><tr><td>跨模态对齐机制</td><td>视觉编码器与语言模型融合,位置感知适配器</td><td>对比学习预训练,视觉感知提示机制</td><td>门控交叉注意力机制,少样本学习能力</td></tr><tr><td>优势特点</td><td>强大的细粒度视觉理解与多模态对话能力</td><td>优异的零样本分类与跨模态检索能力</td><td>灵活的多模态输入处理与少样本学习能力</td></tr></table> 多模态大模型的技术演进呈现出三条清晰的发展主线:一是从“特征拼接”到“语义统一”的转变,早期多模态模型通常采用简单的特征拼接或早期/晚期融合策略,而新一代模型致力于构建统一的语义表示空间,实现真正的跨模态深度理解。二是从“单一任务”到“通用能力”的拓展,模型训练从针对特定任务的设计转向构建通用的多模态理解与生成能力,通过统一的架构和接口实现“一个模型解决多种问题”的理想目标。三是从“强依赖数据”到“高效适应”的进化,如Flamingo3的少样本学习与CLIP2.0+的零样本迁移能力,显著降低了模型对大规模标注数据的依赖,使其能够快速适应保险业中层出不穷的新险种、新条款与新风险形态。 # 当语义对齐走进保险业务 在保险业务场景中,多模态融合的认知架构重构具有深远的实践意义。保险业务天然涉及多源异构数据:投保人上传的身份证件、车辆照片等视觉信息,语音记录的健康告知等音频数据,以及结构化的保单与理赔申请表等文本内容。传统处理系统往往需要多个独立模块分别处理不同模态的数据,容易造成信息割裂与语义不一致。 基于统一架构的多模态大模型,能够将“图文音”数据映射到同一语义空间进行联合理解与深度分析。以车险理赔处理为例,系统可以同时分析事故现场照片的视觉细节、定损员的语音描述内容以及保单条款的文本规定,自动完成责任划分与理赔额度的智能决策,实现业务流程的高效化、准确性和一致性。这种深度融合的能力不仅显著提升了业务流程的处理效率,更重要的是通过深度的跨模态语义对齐,有效规避了因信息片面或语义歧义导致的理赔争议与潜在风险漏洞。 # 1.3.4 认知增强技术的范式重构:从检索增强到自主认知引擎 # 当AI从检索者走向思考者 在人工智能的发展历程中,如何让大型语言模型获取并有效利用动态、海量且高度专业化的领域知识,始终是制约其产业落地的核心挑战。至2025年,检索增强生成(Retrieval-Augmented Generation,RAG)技术已经完成了从初期作为弥补大模型静态知识缺陷与抑制幻觉的“功能性补丁”,到构建高可信、强推理、可持续进化的人工智能系统的核心支柱的深刻范式迁移。当前的技术发展前沿清晰地呈现出三条协同并进的演进路径:效率优化、精准检索与复杂推理,它们共同驱动大模型的认知能力从被动的信息处理跃升至主动的认知创造,为包括保险在内的知识密集型行业提供了前所未有的智能化引擎。 传统的“检索-阅读-生成”线性流程在面对产业实践中复杂、动态且充满歧义的真实问题时,逐渐暴露出检索噪声大、逻辑链条断裂、计算开销高昂等固有瓶颈。2025年,认知增强技术已经演进形成自主驱动、迭代优化、多模态融合的动态认知系统。如图1-9所示,REFRAG的压缩式优化通过实证分析发现大模型在处理多个检索文档时注意力机制的特定模式,引入轻量级编码器将绝大部分检索到的文本块压缩为信息高度凝练的向量表征,实现了无损于效果的成本削减,在基准测试中首字生成延迟最高获得30倍的加速。 图1-9REFRAG的主要设计 # 当认知系统学会精准与协同 xRAG 的结构性突破则采用更为根本性的结构优化,如图 1-10 所示,其核心思想是绕过文本解码这一计算密集型环节,通过模态桥神经网络将检索阶段产生的文档高维嵌入向量直接、无损地映射并融合到大模型内部的表示空间中,这种创新架构不仅带来计算量的大幅降低和推理速度的显著提升,更重要的是开辟了非文本信息直 接增强模型认知的新通道。 图1-10:xRAG(a)与RAG(b)架构对比 在精准检索路径上,传统向量检索严重依赖于查询与文档在嵌入空间的余弦相似度,但在面对专业术语的同义词、近义词及上下文相关词时,语义相似往往不等于意图相关。DRAG 框架的词汇多样性分析首次系统地将词汇多样性分析置于相关性评估的核心位置,它将自然语言查询自动解构为“不变词”“可变词”以及“补充信息”三个组成部分,并对每个成分采取差异化的匹配策略,使系统能够准确把握“心肌梗塞”与“急性心梗”在医学和保险语境下的同一性。LeanRAG 的知识图谱融合则深耕于知识图谱与向量检索的深度融合,它采用自底向上的检索策略:先通过知识图谱锁定核心概念及关联概念,形成结构化的检索蓝图,再据此进行精准的向量召回,这种方法极大地减少了传统检索中常见的碎片化信息和无关噪声,确保了召回信息的结构性与逻辑性,为后续的复杂推理奠定了坚实基础。 在复杂推理路径上,认知增强技术通过引入智能体范式,赋予了系统主动思考、规划与反思的高级能力。DeepSearch 的多智能体协同代表了多智能体系统在认知任务中的工程化典范,它将复杂的问答任务分解并由一组专门化的智能体协作完成:“规划智能体”负责将原始问题分解为一系列可执行的搜索子任务;“搜索智能体”执行精准检索;“推理智能体”对获取的信息进行综合、比对与逻辑判断,这些智能体在“搜索-阅读-推理”的闭环中迭代工作,直到收集到足够证据形成最终答案。DeepNote的认知笔记机制则创新性地模拟了人类专家解决复杂问题时的“记笔记”行为,系统在整个交互过程中维护并不断更新一份结构化的“认知笔记”,每一次检索到的核心知识、得出的中间结论都会被提炼、整合进这份笔记中,而笔记的现有内容则会作为上下文,引导下一次检索的方向与焦点,基准测试表明这种机制在涉及长文档、多因素 问答任务上,其性能相较基础 RAG 提升了约 $20\%$ 。 # 当认知增强重塑行业智能 认知增强技术的范式重构正推动保险智能迈向一个由“自主认知引擎”驱动的新阶段,其核心价值在于将前沿技术跃迁转化为对行业核心能力的重新定义。以REFRAG、xRAG为代表的效率优化路径,使系统有望以毫秒级速度巡览与解析海量保险条款、医学文献和案例经验,为构建实时响应、深度研判的“专家级”业务中枢奠定基础;而DRAG的词汇多样性分析与LeanRAG的知识图谱融合,则致力于在复杂业务场景中——如核保风控与理赔理解——更精准地弥合专业术语与日常表述之间的语义鸿沟,从源头降低因信息偏差带来的操作风险;更进一步,DeepSearch的多智能体协同与DeepNote的迭代认知机制,为处理保险中典型的非结构化、长链条任务提供了新思路,系统可模拟人类专家的调查路径,在多源信息中自主进行证据提取、逻辑比对与推理验证,形成结构清晰、过程可溯的决策依据,从而在提升业务处理一致性的同时,为合规审计与风险管控构建起透明、可信的认知底座。这一系列技术演进共同指向一个未来:认知增强不再仅是信息处理的工具,而是成为融入业务逻辑的“战略资产”,推动保险从传统的流程执行,转向具备持续学习、自主进化与深度决策能力的认知协同新范式。 # 第二章 智能体(AI Agent)技术演进:从工具调用到自主协同 # 2.1 AI Agent 的核心架构:感知理解与行动闭环 智能体的核心架构本质上是为大型语言模型构建一个能够与现实世界交互的“身体”与“神经系统”。如图2-1所示为智能体架构示意图,该架构将LLM的认知能力置于动态闭环中,使其不仅能思考规划任务,更能感知、记忆并行动,最终形成一个能够持续学习与进化的自主智能系统。 图2-1 智能体架构图 # 2.1.1. 大脑:Agent规划决策的指挥官 在智能体架构中,大语言模型承担着“大脑”或“核心指挥官”的角色,是智能体实现环境感知、决策规划和自主学习的核心驱动力。智能体在强化学习框架下的核心构成要素包括推理、规划、工具使用与优化等关键模块,这些模块共同支撑智能体在动态环境中进行感知、决策与行动,并通过与环境的持续交互实现策略优化与自我改进。LLM在任务规划、世界知识存储与逻辑推理方面展现出卓越能力,为智能体提供了理解、推理和生成的核心认知基础。将这些认知能力系统性地转化为可执行的智能行为,依赖于思维链、任务分解与自我反思等关键技术。 思维链(Chain-of-Thought, CoT)是推动大模型推理能力突破的关键技术。该技术能够引导模型将输入的复杂问题分解为连续的中间推理步骤后输出,不仅显著提升了任务处理的透明度,也增强了结果的可解释性与准确性。例如,智能体在处理如“评估保险标的承保风险”等复杂任务时,不再是“黑箱”直觉,而是能够生成“分析标的属性 $\rightarrow$ 查询历史理赔数据 $\rightarrow$ 评估宏观风险因素 $\rightarrow$ 综合计算费率”的可信、可追溯的逻辑链。这种系统性的推理能力是完成核保、理赔定损等需要多步逻辑判断的保险核心业务的关键。而基于思维链技术的延伸研究也进一步拓展了LLM的推理边界,使其能够胜任更复杂的多步推理任务。 任务分解(Task Decomposition)能力使智能体能够将用户提出的宏观目标拆解为结构化的子任务序列。例如,当接到“为客户规划全家保障方案”的指令时,智能体可以自动将其分解为“分析客户家庭结构与财务画像”、“评估每位家庭成员的风险敞口”、“匹配现有产品库并计算保费”、“生成个性化方案说明书”等一系列有序的子任务。这一过程往往结合任务与动作规划(TAMP)框架,由LLM负责高层语义 规划,下层则交由强化学习等策略执行具体控制,从而在抽象指令与物理动作之间建立有效衔接。而这种对复杂保险需求的自动化拆解与规划能力,是实现端到端智能服务的前提。 值得注意的是,智能体的推理过程并不总是单向推进的。 自我反思(Self-Reflection)机制赋予智能体从历史交互中学习的能力,对自身过往的行动与结果进行事后分析,识别推理缺陷或低效环节,并从错误中学习,形成“行动-评估-调整”的进化闭环。智能体能够在任务失败后进行语言层面的自我剖析,识别规划路径或工具调用中的不足,并将反思结论存入记忆模块,用于优化后续决策。例如,一个在理赔初审中被核赔专家驳回结论的智能体,可以通过反思总结出被忽略的免责条款或定损标准,将这些洞察存入记忆,从而在后续类似案件中优化其审核策略,实现不依赖参数更新的持续自我改进。该机制大幅增强了智能体的容错性与持续学习能力,使其逐步摆脱对静态提示工程的依赖。 作为智能体的“大脑”,大语言模型通过思维链、任务分解与自我反思三项核心技术的协同,不仅具备了将抽象目标转化为具体行动计划的规划能力,也实现了在执行中动态学习与调整的智能行为基础,为构建具备人类协作水平的智能体奠定了核心认知基础。 任务分解(Task Decomposition)能力使智能体能够将用户提出的宏观目标拆解为结构化的子任务序列。例如,当接到“为客户规划全家保障方案”的指令时,智能体可以自动将其分解为“分析客户家庭结构与财务画像”、“评估每位家庭成员的风险敞口”、“匹配现有产品库并计算保费”、“生成个性化方案说明书”等一系列有序的子任务。这一过程往往结合任务与动作规划(TAMP)框架,由LLM负责高层语义规划,下层则交由强化学习等策略执行具体控制,从而在抽象指令与物理动作之间建立有效衔接。而这种对复杂保险需求的自动化拆解与规划能力,是实现端到端智能服务的前提。 值得注意的是,智能体的推理过程并不总是单向推进的。 自我反思(Self-Reflection)机制赋予智能体从历史交互中学习的能力,对自身过往的行动与结果进行事后分析,识别推理缺陷或低效环节,并从错误中学习,形成“行动-评估-调整”的进化闭环。智能体能够在任务失败后进行语言层面的自我剖析,识别规划路径或工具调用中的不足,并将反思结论存入记忆模块,用于优化后续决策。例如,一个在理赔初审中被核赔专家驳回结论的智能体,可以通过反思总结出被忽略的免责条款或定损标准,将这些洞察存入记忆,从而在后续类似案件中优化 其审核策略,实现不依赖参数更新的持续自我改进。该机制大幅增强了智能体的容错性与持续学习能力,使其逐步摆脱对静态提示工程的依赖。 作为智能体的“大脑”,大语言模型通过思维链、任务分解与自我反思三项核心技术的协同,不仅具备了将抽象目标转化为具体行动计划的规划能力,也实现了在执行中动态学习与调整的智能行为基础,为构建具备人类协作水平的智能体奠定了核心认知基础。 # 2.1.2.工具:工具调用与外部知识集成 在智能体架构中,“工具”系统承担着连接外部世界、获取实时信息的关键职能。对于保险行业而言,外部数据的时效性与准确性直接影响风险评估、定价、理赔等核心决策的质量。传统大模型依赖静态参数化知识,难以应对保险场景中对动态法规、市场变化、客户行为及灾害信息的实时需求。因此,工具调用(Function Calling)技术与检索增强生成(RAG,Retrieval-Augmented Generation)技术成为构建保险智能体“工具”系统的两大核心技术支柱。 工具调用(例如:Function Calling 工具调用、MCP 工具调用)是指大模型在推理过程中,能够自主判断何时调用外部 API,并以结构化方式传入参数、解析返回结果,从而将外部系统的能力嵌入自身推理链,如图 2-2 所示。这一机制显著扩展了模型的感知边界,使其不再局限于训练语料,而是能够实时访问数据库、知识图谱、监管接口、气象服务、医疗健康平台等。在保险实践中,工具调用技术的应用可包含以下场景:调用气象局 API 获取台风路径、地震等级等信息,动态调整财产险的风险评分;对接医疗记录平台或可穿戴设备接口,获取投保人历史健康指标,实现精准定价;调用监管总局或地方银保监局的法规服务接口,确保销售话术、保单条款符合最新政策要求;调用公安、交通、医院等多源数据接口,交叉验证事故真实性与伤情一致性。举例来说,一个基于 LLM 的保险理赔助手在接到用户提交的“车祸索赔”请求时,可自动调用交通事故数据接口、车辆维修报价系统、保单责任条款库等,快速生成核查清单与初步赔付建议,实现“感知一判断一响应”的闭环。 图2-2工具调用流程图 RAG 通过将外部知识库向量化并存储在检索系统中,使大模型在生成回答前,先基于用户问题检索最相关文档片段,再据此生成答案。这一机制有效缓解了 LLM 的“幻觉”问题,提升了回答的专业性与可追溯性。以企业网络安全险风险评估场景为例:当智能体需要判断某企业是否适合投保时,可首先生成初步分析,随后自动检索该企业的行业属性、历史数据泄露记录及系统安全等级等多维度信息,通过“检索-推理-再检索”的迭代过程,最终输出结构完整、依据明确的风险评估报告。在行业实践中,泰康人寿推出的“泰小保”作为保险业首款大语言模型智能机器人,已于“保银通”平台全面上线。该系统集成 DeepSeek-R1 大模型并融合 RAG 技术,能够快速理解产品条款与客户需求,自动生成专业保险方案,显著提升了银保业务的服务精度与响应效率,体现了 RAG 在保险垂直领域的成功应用。 工具调用技术与 RAG 技术在实际应用中互补共生,前者强调结构化、实时、精确的数据获取,后者擅长非结构化、知识型、语义级的信息融合,这种“结构化数据 + 非结构化知识”的双通道感知模式使得智能体在具备更强的综合判断能力的同时,还能保持机器的高效、稳定与合规优势。 # 2.1.3. 记忆:对话历史与个性化服务 在智能体架构中,记忆系统是实现持续交互与个性化服务的核心支撑。它使智能体能够跨越单次会话的局限,形成对用户需求和偏好的长期理解,在保险这类高度依赖客户关系和历史信息的行业中发挥关键作用。借鉴人类记忆的层次结构,智能体记忆通常分为短期记忆与长期记忆两大模块,分别承担对话上下文的即时维护与用户偏好、领域知识等持久信息的存储与管理。 短期记忆(例如:对话缓存)负责维护当前会话的上下文信息,确保交互的连贯性与一致性。它可以临时保存当前对话轮次中的关键信息,以对话缓存(Dialogue Cache)的形式存在于模型的上下文窗口中。短期记忆使得智能体能够在单次会话中理解用户的连续指令,保持对话的连贯性与逻辑一致性。举例来说,在保险服务场景中,当客户咨询“我之前询问的重疾险,如果加上轻症豁免条款,保费会变化吗?”时,智能体能够准确回溯上下文,理解“之前询问的重疾险”具体指哪款产品,并基于已讨论的保障范围进行针对性回应。这种短期记忆机制显著提升了对话的自然度和效率,使客户无需重复陈述基本信息,改善了用户体验。然而,短期记忆受限于大语言模型的上下文长度,无法存储大量历史信息,因此需要通过精巧的 Prompt 设计与上下文压缩技术,最大化其利用效率。 长期记忆(包含:向量数据库、长文本技术等)则承担了更为重要的角色,它通过向量化存储技术、知识图谱等外部存储机制,突破上下文窗口的限制,将用户历史 行为、客户画像、偏好设置等持久化信息进行存储,并能做到快速检索。这种记忆机制使智能体能够建立真正的客户认知,实现从"标准化服务"到"个性化服务"的跃升。例如,水滴公司AI客服在车险续保场景中,其智能体能够规划在数月周期内与用户进行5-6次沟通,并基于对过往对话内容、客户反馈与资料分析的长期记忆,在每次沟通中巧妙衔接历史上下文,逐步挖掘用户真实需求,展现了记忆系统在复杂销售周期中的关键作用。 在保险服务场景中,长期记忆系统通过多维度的价值体现支撑其核心作用。该系统能够基于客户的历史咨询记录、理赔经历与产品偏好进行深度分析,使智能体得以洞察客户的真实需求。例如,当一位曾多次咨询家庭财产险的客户再次联系时,智能体可主动识别其潜在需求,提出“您是否需要为最近购置的新房产配置保险”的个性化建议,而非提供机械化的标准产品列表。长期记忆机制还通过存储客户的特殊需求与未决事项,保障服务体验的连续性。若客户在前次交互中提及“下个月孩子出生后需要补充保险”,智能体可在适当时机主动跟进,并提供相应的保险规划建议,实现服务过程的自然衔接。此外,基于对客户风险偏好、财务状况与家庭结构的持续追踪,长期记忆为精准营销与风险控制提供数据支撑。智能体能够据此推荐高度匹配的保险产品,并在核保环节结合历史数据进行更准确的风险评估,提升决策质量与业务效率。 需要强调的是,保险行业的特殊性对记忆系统提出了更高要求,尤其在数据隐私保护、信息准确性与合规性方面。智能体必须严格遵循最小必要原则进行信息采集,建立完善的数据治理机制,并确保记忆内容的实时更新与动态修正,以避免基于过时或错误信息做出业务决策。 综上所述,记忆系统作为智能体的"经验库",使其能够超越单次交互的局限,在保险服务的全生命周期中提供连贯、精准且个性化的服务,真正实现从"交易型交互"向"关系型服务"的转型,为构建长期客户关系和提升服务价值奠定了坚实基础。 # 2.1.4. 行动:决策与执行验证 智能体的“行动”模块是其与环境交互、完成任务并产生实际价值的最终环节。该模块在完成感知、规划和记忆检索的基础上,负责将推理结果转化为具体动作,并确保执行的准确性、安全性与合规性。 在决策生成阶段,智能体借助大语言模型的思维链与任务分解能力,将复杂任务拆解为可执行的子步骤,并生成相应的动作序列。例如,在处理用户理赔申请时,智能体可自动规划“图像证据识别 $\rightarrow$ 保单条款匹配 $\rightarrow$ 损失金额估算 $\rightarrow$ 审核结论生成”等多步推理流程,并输出决策结果。 在执行层面,智能体通过调用工具将决策转化为实际业务操作,包括但不限于:自动生成并发送理赔通知邮件、在核心系统中提交核保申请、创建客户跟进任务、生成保险合同草案等。这些动作通过API与现有业务系统(如核保引擎、理赔平台)无缝集成,实现从决策到执行的端到端自动化。 保险行业对准确性、合规性和可追溯性的要求较高,因此可为智能体的行动系统设置以下“安全护栏”和验证机制,确保行动安全、合规。 其一,对逻辑一致性进行校验。在执行关键操作(如核保通过、理赔支付)前,智能体自动对决策依据进行复核,通过RAG技术实时检索最新保险条款与监管规定,确保动作符合业务规范。其二,在处理涉及图像、单据的任务时,智能体可调用视觉语言模型(VLM)对上传资料进行真实性检测与关键信息提取,实现跨模态证据对齐。其三,针对高风险或低置信度决策,系统自动触发人工审核流程,将任务路由至核保、理赔等专业岗位,形成“AI预处理+人工终审”的协同机制。最后,需确保智能体决策的审计追踪与可解释性。可应用思维链技术,为所有自动执行的动作生成可追溯的推理链,记录决策逻辑、数据来源与操作日志,满足保险行业合规审计与监管报备要求。行业实践对此提供了有力印证,行业实践对此提供了有力印证,中国再保的AI医疗控费系统通过多模态模型自动分类、识别医疗票据,并依据规则库对费用进行智能审核与校正,是上述能力在具体业务中的综合体现。 # 2.2 多智能体系统(Multi-Agent System)的关键技术:单一任务与复杂系统 随着保险业务场景日趋复杂,单一智能体在处理涉及多领域知识、长流程链路的任务时往往力有不逮。多智能体系统通过模拟人类社会的分工协作,将多个具备特定专长的智能体组织起来,共同应对复杂挑战,实现了从单一任务到复杂系统的范式跃迁。 # 2.2.1 多智能体的必然性:复杂任务下的分工与协同优势 尽管单智能体已展现出强大能力,但在面对需要多元专业知识或复杂问题分解的任务,如“重大事故的自动化理赔定损与欺诈识别”时,其内在局限性逐渐凸显。保险业务流程通常涵盖核保精算、风险评估、理赔调查、客户服务与合规审核等多个专业环节,要求系统具备跨领域的知识融合与流程协同能力。单一智能体受限于其预设功能边界与知识结构,难以同时掌握精算建模、医疗核保、法律条款解析及欺诈模式识别等高度专业化的知识体系。另一方面,在长周期、多阶段的复杂任务中,单一智能体在任务分解与路径规划过程中易受到“信用分配问题”的制约,难以准确评估各子步骤对最终结果的贡献,从而导致策略优化困难与决策稳定性不足。除此之外,保 险行业中经常需要并行处理海量结构化数据(保单、理赔记录)与非结构化数据(现场照片、医疗报告、沟通记录),对单一智能体的多模态处理与实时计算能力构成了较大的挑战。 在此背景下,多智能体系统应运而生,成为应对上述挑战的有效路径。多智能体系统(Multi-Agents System, MAS)是由多个交互的智能体组成的复杂系统,其核心优势在于其分布式决策和解决问题的能力。多智能体系统通过将全局性复杂任务分解为若干子任务,并由多个具备专业能力的智能体并行协作处理,实现了任务执行的专业化与分布式决策。每个智能体可聚焦于其最擅长的领域中,从而在整体上提升系统的处理效率与决策质量。 因此,多智能体系统通过任务分解与专业化协同,不仅能够有效突破单智能体在能力广度与深度上的瓶颈,更借助并行处理与知识互补机制,在保险这类高复杂度、高专业要求的行业中,形成了超越个体能力简单加总的协同效应,为实现端到端的智能化服务提供了坚实的技术基础。 # 2.2.2 协同协议:智能体间的通信与协商机制 在多智能体系统中,协同协议是实现从“单一任务”到“复杂系统”的操作性核心。它定义了智能体之间如何交换信息、协调行动、解决冲突并达成共识,是确保系统在复杂的保险业务场景中高效、可靠运行的关键。一个设计精良的协同协议,能够将多个功能单一的智能体整合为一个有机的整体,共同应对单体无法解决的复杂任务。 # 通信机制:构建智能体间的“共通语言” 通信机制是实现智能体协同的基础保障。在保险业务场景中,智能体需交互的信息类型多样,涵盖结构化保单数据、非结构化理赔描述、医疗报告、现场图像、定损视频以及实时市场与风控数据等。为实现高效可靠的信息传递,智能体之间需采用标准化接口与通信协议,例如基于API的集成模式,为内外部数据交换与工具调用提供稳定契约。 此外,环境模拟与上下文共享对通信有效性具有关键作用。系统可为执行特定任务的智能体群组构建统一的上下文环境,明确任务背景、规则约束与执行状态,使所有智能体的通信行为与决策过程基于一致的情境认知,从而保障系统行为的一致性与任务相关性。 # 协议架构:组织协同的骨架 如图 2-3 所示,智能体系统的协同架构主要可分为三种基本范式:中心化、分 布式与分层式结构。 图2-3多智能体系统组织架构 中心化架构通过设立中央协调智能体,实现对系统中其他智能体在任务分配与推理过程方面的统一调度。中央节点承担全局规划、任务分解与结果融合等核心职能,需集成并处理所有附属智能体的输出信息;而下属节点仅需执行指令,从而有效降低系统在上下文管理方面的复杂性。该架构有利于实现系统层面的协调一致与全局优化,但也存在中央节点性能瓶颈及单点故障等潜在风险。 分布式架构不设中央控制节点,各智能体具有平等地位,基于本地信息与点对点直接通信进行自主决策。每个智能体的上下文更新需综合其通信邻居或系统中其他智能体的输出状态,形成典型的分布式协商机制。此类架构通过并行讨论促进协作行为的涌现,具备较高的系统鲁棒性与容错能力,但在整体资源利用效率方面存在一定局限。 分层架构以树形或金字塔结构组织智能体,将复杂任务按不同抽象层次分解为子问题。高层智能体负责战略规划与任务指派,低层智能体则专注于执行具体子任务。信息流呈垂直分布特征——指令自上而下传递,结果自下而上汇总。该架构在目标明确、流程规范的任务场景中表现优异,能够有效提升执行效率与系统一致性,但刚性层级结构可能在一定程度上限制个体智能体的自适应能力与创新空间。 # 协商机制:从冲突到共识 当多个智能体的目标或决策出现冲突时,需要通过协商机制来达成一致。如图2-4所示,根据交互模式差异,智能体协商机制可分为合作、竞争与谈判三类。 图2-4多智能体系统协商机制 合作型协商:在合作机制中,智能体的首要目标是最大化集体利益。系统会建立一个共同目标,用于引导知识共享与协作规划。该目标可在系统提示中预先设定,也可在不同推理阶段动态形成。在每一步,智能体都会通过反思机制动态更新目标,并将其个人目标与共同目标对齐,更新后的目标将进一步影响下一步的推理过程。因此,单个智能体目标的实现往往也会促进其他智能体乃至整体系统的目标达成。 竞争型协商:在竞争型协商中,各智能体以最大化个体收益为目标,形成策略性互动关系。智能体需在推进自身议程的同时,根据其他智能体的可观测输出推断其意图并制定反制策略。这种对抗性目标更新过程通过多轮辩论机制,强制系统全面探索解空间,从而增强输出结果的稳健性与决策质量。 谈判型协商:谈判是一种融合合作与竞争的混合交互方式,使利益冲突的智能体通过沟通与让步达成彼此均可接受的共识。协商过程中,智能体依次交换提案,并依据共同目标与其他智能体的提案内容,迭代调整自身目标与策略。这一过程迫使智能体在自身目标、集体约束与他人观点之间权衡。该方法尤其适用于那些没有唯一正确答案、而是存在一系列可接受解的复杂决策场景中。 # 2.2.3博弈与均衡:竞争协作以实现全局目标 在多智能体系统中,智能体之间并非总是利益一致。正如一个保险公司内部存在销售、核保、理赔、风控等具有不同KPI的部门一样,相应的智能体也拥有各自的目标函数。这些目标可能相互冲突,例如,销售智能体追求保费收入最大化,而核保智能体则关注风险最小化。这种既协作又竞争的复杂关系,恰恰是博弈论应用的典型场景。通过设计合理的博弈机制,系统能够引导智能体在追求自身利益的过程中,自发地实现整个系统的全局最优目标。具体来说,保险业务中存在以下两种博弈。 非零和博弈:在保险产品设计与定价过程中,市场销售智能体(目标:低保费、宽责任以吸引客户)与精算定价智能体(目标:充足保费以覆盖风险)之间存在天然的张力。这并非你死我活的“零和博弈”,而是一种“非零和博弈”。通过引入利润共享或综合评分的机制,系统可以构建一个使双方目标对齐的奖励函数。例如,最终的奖励不仅看保费收入,也看赔付率和客户满意度。这样,销售智能体不会无底线地降价,精算智能体也不会过度保守,二者在反复的“出价-还价”式交互中,最终会收敛到一个既能吸引市场又保证盈利的均衡价格点上。 重复博弈:在理赔处理中,投保人/代理人智能体(可能存在的欺诈动机)与保险公司反欺诈智能体之间构成一种“重复博弈”。单次博弈中,欺诈可能带来收益。但在长期、多次的交互中,反欺诈智能体通过历史数据分析、建立“信用档案”,可以对高风险行为进行标记和更严格的审查。这种长期的威慑和信用机制,使得诚实的理赔策略成为投保人智能体的最优选择,从而在系统层面降低了整体欺诈率。 而为了实现理想的均衡,需要借助以下激励机制的设计。 基于强化学习的策略优化:如图2-5所示,智能体通过与环境的不断交互,即与其他智能体的反复博弈,学习最优策略。除去智能体与智能体之间的互动,基于人类反馈的强化学习(RLHF)可将保险专家的经验(如"何种风险组合是可接受的"、“何种理赔案件应拒赔")作为反馈信号,构建专业的奖励模型,引导智能体的策略向合规、稳健的方向进化。 图2-5 智能体强化学习与语言模型的基本组件 动态奖励函数与目标对齐:全局目标的实现,依赖于将系统级目标(如“长期利润最大化”、“市场占有率健康增长”)巧妙地分解并融入每个智能体的奖励函数中,而这需要设计动态奖励函数,避免智能体陷入局部最优。例如,对理赔智能体的考核不能仅仅是“降低赔付金额”,而应是“在准确识别欺诈的同时,提升诚实客户的理赔满意度”。通过这种多目标、长周期的奖励设计,促使智能体的个体理性与系统的集体理性趋于一致。 博弈结果作为系统反思的输入:反思机制在此处至关重要。当一场多智能体的博 弈结束后,系统可以启动一个“元智能体”或“裁判智能体”,对博弈全过程进行复盘。它会分析:各方提出的证据是否充分?争论的焦点是否合理?这些反思结论将被存入长期记忆,用于优化下一次博弈的策略,使系统具备持续进化的能力。 博弈与均衡机制是多智能体系统从简单的"分工协作"迈向高级"竞合智能"的关键环节。它承认并利用了保险业务内在的矛盾与张力,通过科学的计算和激励机制,将这些矛盾转化为驱动系统走向动态最优的强大动力。随着技术的成熟,基于博弈论的智能体系统将为保险公司在复杂市场环境中实现精细化管理、科学决策和可持续发展提供全新的技术范式。 # 2.2.4. 系统涌现性:从个体智能到集体智慧 在多智能体系统中,系统涌现性是指通过个体智能体之间的交互与协同,系统整体展现出超越个体能力简单相加的集体智慧,即“ $1 + 1 > 2$ ”的系统性优势。涌现性是多智能体系统在复杂任务中提高效率、增强系统鲁棒性和实现自适应决策的核心机制。 涌现性的产生依赖于以下三个关键机制: - 分布式感知与信息融合:每个智能体基于其局部环境(如客户数据、市场动态、风险事件)进行独立感知与推理,并通过通信协议将局部信息汇总为全局视图。例如,在保险核保过程中,多个智能体分别从医疗记录、征信数据、行为画像等维度评估风险,其综合判断远优于单一数据源的局限性。 - 协同决策与知识互补:智能体通过合作、竞争或谈判协商机制,在任务分解与执行中实现专业能力的互补。例如,车险定损场景中,图像识别智能体负责损伤检测,理赔规则智能体审核条款合规性,反欺诈智能体评估风险异常,三者协同形成高精度、全链条的定损决策。 - 动态适应与集体学习:系统通过强化学习、反思机制等反馈循环持续优化个体行为与交互策略。当某一智能体发现新的风险模式,其经验可通过知识共享机制快速扩散至整个系统,提升集体抗风险能力。 因此,为了有效实现多智能体系统的涌现性,在实际应用中需根据任务特性选择中心化、分布式或分层架构,同时建立智能体间的通信规范,确保信息可解释、可追溯,避免“幻觉”传播与决策冲突,并通过奖励函数设计使个体目标与系统目标对齐,防止局部优化导致全局性能下降。 在保险业务中,多智能体系统的涌现性可以表现在以下几个层面:首先,在核保环节实现效率与准确性的双重提升,通过多智能体间的博弈均衡与协商机制,突破单 一模型的数据偏差与规则固化限制,在覆盖范围、定价精度与风险控制之间达成动态平衡,形成全局最优的核保策略;其次,在理赔环节构建协同反欺诈防御体系,依托多智能体的联合推理能力,运用社交网络分析、行为序列检测与文本语义挖掘等技术,精准识别单体系统难以捕捉的跨域隐蔽欺诈模式,形成全方位覆盖的“天网式”风险防控机制;最后,在客户服务层面打造良好体验,通过语音交互、意图理解、政策查询与投诉处理等智能体的分层协