> **来源:[研报客](https://pc.yanbaoke.cn)** # AI 医疗治理白皮书 # White Paper on AI Healthcare Governance (2026版) 港大-复旦IMBA项目明博学社医疗健康产业俱乐部 上海社会科学院信息研究所 管理视野MANAGEMENT INSIGHTS 《管理视野》杂志 二〇二六年一月 # 致谢 本报告得到了联合国公共行政网(UNPAN)的大力支持,在此表示感谢。英文版下载地址:https://unpan.un.org/resources/white-paper-ai-healthcare-governance # 课题组成员 主笔:赵付春 上海社会科学院信息研究所数字经济研究室主任副研究员,博士 # 参与: > 夏蓓丽 上海社会科学院信息研究所助理研究员,博士 刘树峰 上海社会科学院信息研究所助理研究员,博士 黄浩 明博医疗俱乐部主席,资深行业营销专家 > 顾文兵 明博医疗俱乐部理事,资深行业咨询专家 > 于保平 复旦大学管理学院商业知识发展与传播中心主任,博士 # 目录 执行概要 1 第一章 AI医疗的繁荣及其治理挑战 3 一、AI医疗热潮的兴起 3 二、AI医疗的演进过程 4 三、AI医疗的应用领域及治理风险 7 四、AI医疗治理的定义和范围 9 五、AI医疗治理的核心议题 9 第二章 发达经济体AI治理动态 11 一、美国:市场驱动、创新优先 11 二、欧盟:以人为本,规则驱动 20 三、英国:价值导向,务实探索 26 四、新加坡:国家愿景,敏捷治理 31 五、AI医疗治理水平评估指标体系构建 34 第三章 中国AI医疗治理现状. 37 一、顶层战略驱动:AI医疗上升为国家意志 37 二、治理政策法规体系 39 三、治理实践的主要成就 45 四、国内外AI医疗治理水平对比 46 第四章 AI医疗全生命周期风险图谱 49 一、AI医疗全生命周期风险框架 49 二、技术维度 51 三、数据维度 53 四、法律维度 54 五、伦理维度 55 # 第五章 AI医疗治理的核心规则体系构建 57 一、多方协同共治 57 二、差异化监管 60 三、全流程覆盖 61 # 第六章 政策建议与行动倡议 64 一、对政府的政策建议 64 二、对AI企业的行动倡议 66 三、医疗机构的行动指南 67 四、推动公众的广泛参与 67 五、全球视野下的行动倡议 68 # 参考文献 69 # 执行概要 随着人工智能技术在医疗领域的深度融合,一场深刻的产业变革正在加速演进。AI医疗不仅极大地提升了诊疗效率与精准度,也带来了前所未有的复杂挑战,使得构建科学、审慎、前瞻的治理体系成为一项紧迫的时代课题。本白皮书旨在系统梳理全球AI医疗治理动态,深入剖析中国治理现状,并提出一套兼具国际视野与本土特色的治理框架与政策建议。 首先,本报告在阐明AI医疗发展背景与治理紧迫性的基础上,对美国、欧盟、英国、新加坡等发达经济体的治理模式进行了深入比较,提炼出其“市场驱动”、“规则驱动”、“价值导向”和“敏捷治理”等核心特征。在此基础上,报告创建了一个包含“治理体系、治理能力、治理效能、持续改进”四个维度的治理框架成熟度评估指标体系。 其次,报告系统梳理了在顶层战略驱动下,中国AI医疗在政策法规、监管实践等方面取得的显著成就,并运用前述评估体系,客观分析了当前面临的深层次挑战,如制度精细化不足、多元共治机制待完善、价值反馈闭环尚未形成等。并以综合评估指标体系为工具,对五大经济体的治理现状进行了横向对比分析,明确了各自的优劣势与演进路径。 为应对挑战,报告从风险视角出发,绘制了覆盖技术、数据、法律、伦理四个维度的AI医疗全生命周期风险图谱,并以此为基础,提出了构建核心规则体系的“三驾马车”路径:多元共治以明确主体,差异化监管以厘清对象,全流程覆盖以提供工具。 最后,本报告从完善顶层设计、强化技术支撑、优化监管沙盒、构建反馈机制等多个层面,提出了具体的政策建议与行动倡议,旨在构建一个安全、可信、高效、公平的AI医疗治理新范式提供决策参考,推动中国在全球AI医疗治理领域贡献智慧与方案。 综上所述,本报告提出以下重要观点: # 一、AI医疗:治理重于技术 在AI医疗的演进中,治理并非技术的附属品,而是决定成败的基石。医疗是高风险的生命决策,算法领先无法对冲法律风险与信任鸿沟。技术解决效能,治理则解决准入与责任归属。没有科学的审批与溯源机制,先进算法便难以获得制度授权。从长远看,治理更是重构医患信任的生命线。AI的“黑箱性”要求治理具备动态监测与纠偏能力,以防范偏见、守护公平。医学本质是“人学”,以人为本的治理架构确保了人类最终决策权,在保护医生自主性的同时维护患者尊严。AI竞争短期看算力,长期看伦理,全流程共治方能确保技术始终造福人类。 # 二、治理主体多元化是必然趋势 AI医疗治理并非单一维度的行政监管,而是复杂的社会技术系统工程。单一政府部门难以穷尽算法迭代的细节,必须依托企业和医疗机构的专业深度来弥补监管盲区。AI介入决策使得损害责任从医生个体延伸至数据方与开发商,模糊的责任边界要求全链条主体协同发力以防范法律真空。治理本质上是多元价值的动态平衡,涉及技术创新、临床安全、政策普惠与隐私保护等多重诉求的博弈,唯有通过多元主体的共治,才能在激励创新与防控风险之间寻求最大公约数。 # 三、治理机制动态化是关键 AI医疗具有显著的“演变性”,其算法性能随数据环境实时漂移,技术迭代周期远快于传统法规的更新周期。静态监管不仅难以捕捉隐匿的算法风险,更可能因规则滞后而禁锢创新。这种技术属性与制度迟滞之间的矛盾,决定了治理必须从“静态准入”转向“动态演进”,以确保监管节奏与技术脉搏同频共振,实现风险实时受控。在实践中,我们应构建全生命周期的智能反馈体系。通过设立“监管沙盒”为新技术提供弹性测试空间,推动政策法规与技术标准的循环迭代。同时,利用数字化平台对算法运行进行实时审计与伦理持续评估,在性能衰减或偏见萌芽时即时介入纠偏。这种柔性治理机制将治理重点从“事后追责”前移至“全程监控”,使制度能够敏捷响应社会需求,确保AI医疗始终在动态平衡中安全运行。 # 第一章 AI医疗的繁荣及其治理挑战 # 一、AI医疗热潮的兴起 过去十多年来,随着人工智能(AI)在医疗领域应用日益广泛,中国开启了AI医疗的新赛道①。2025年初,DeepSeek的横空出世更是标志着国内大模型平民化时代到来,2025年也由此成为中国“AI医疗”的元年。 AI医疗的巨大潜力,正在转化为实实在在的市场价值,吸引了全球资本和科技巨头的竞相布局。根据亿欧智库的预测,到2025年,中国医疗大模型市场规模接近20亿元人民币,预计到2028年将突破百亿元大关,反映了中国市场在生成式AI浪潮下的强劲增长势头。 放眼全球,市场前景同样广阔。商业咨询机构The Research Insights的一项研究显示,到2030年,全球医疗AI市场价值将达到惊人的1877亿美元,期间的复合年增长率高达 $37\%$ 。这一增长动力来源于全球范围内医疗需求的持续增长、医疗成本的不断攀升以及各国政府对医疗数字化转型的积极推动。从初创企业到跨国药企,从科技巨头到传统医疗器械公司,整个产业链正在被AI技术激活和重塑,一个充满活力的AI医疗生态系统正在加速形成。 本轮AI医疗热潮的兴起,是技术突破、市场需求、政策支持多重因素共同作用的结果。 从技术方面看,本轮AI的蓬勃发展源于2006以来“深度学习之父”辛顿(J. Hinton)等人推动深度学习复兴。2012年辛顿团队在ImageNet图像分类竞赛中,利用AlexNet深度卷积神经网络在计算机视觉领域取得重大突破,间接推动了医学影像分析的进步。2022年底ChatGPT的发布,带动了各类大语言模型如视觉语言大模型、图学习大模型、多模态、多智能体大模型如雨后春笋般出现,AI算 法在各类疾病(糖网、乳腺癌、肺癌、心血管疾病等)的影像诊断准确率已与三甲医院高年资影像科医生相当。研究发现,GPT-4 在医学考试和临床推理任务上表现出接近或超过人类及格线的能力,在多个医学基准上达到当前最优水平。① 从市场需求看,对于药物公司来说,AI可以有效助力科研,参与分子合成、靶点发现等,能帮助研发人员更好地理解病理机制,甚至替代动物模型,从而能够有效缩短研发周期、降低研发经费。对于很多大型医院而言,借助于AI代替大量常规性工作,协助设计临床试验,包括利用“真实世界”数据、电子健康记录和医疗索赔数据的试验,预测试验结果,优化剂量、给药方案和确定临床终点,并提高药物依从性,更加高效、精准地为患者提供优质服务。 对于患者而言,日益增长的需求受到多种因素推动,包括人口老龄化、多种长期疾病(如糖尿病和肥胖症)患病率上升,以及人们对优质医疗服务期望的不断提高。与此同时,放射科、病理科等许多核心且工作量巨大的专业领域,熟练人员却日益短缺。为此,各界期待人工智能医疗设备能够提供超越人类的表现,避免人为错误和不一致性,并可按需扩展,在整个医疗系统内提供专家级诊疗。这一理想前景极具吸引力,也正成为医疗系统强有力“拉力”。 从政策层面看,主管部门普遍面临医疗经费不足、资源分布不均、监管难度大等棘手问题。AI医疗能够通过远程监控、智能穿戴设备等手段,为老年人和慢性病患者提供更加便捷和连续的医疗服务;还能够通过数据分析预测疾病风险,实现早期干预,减少医疗资源的浪费。因此,推动AI在医疗领域的发展符合各方利益,各国都在积极出台法规和行业发展政策,鼓励创新。 # 二、AI医疗的演进过程 人工智能在医疗领域的应用,并非一蹴而就,而是经历了一个从量变到质变的演进过程。这一过程大致可分为三个阶段: 第一阶段:基于规则的专家系统与早期机器学习(1960年代-2011)。 21世纪之前,AI医疗的探索主要集中在专家系统。匹兹堡大学开发的 INTERNIST-1是世界上第一个人工医疗顾问系统<sup>①</sup>。1972年斯坦福大学MYCIN细菌感染并推荐抗生素的专家系统,虽然它从未被正式投入临床使用,但其设计思想和架构影响了后续几十年的研究,是AI医疗领域的开创者。这类系统通过将人类医学专家的知识编码成一系列“如果-那么”的规则,来模拟医生的诊断推理过程。然而,其知识库更新困难、无法处理不确定性、泛化能力弱等缺陷,限制了其在复杂临床环境中的应用。随后,以支持向量机、随机森林等为代表的传统机器学习算法开始崭露头角。它们能够从结构化数据(如实验室检验结果、生命体征数据)中学习模式,用于疾病风险预测等任务。 这一阶段的AI,主要用于辅助诊断和决策支持,应用范围狭窄,高度依赖人工构建的知识库,无法处理不确定性或学习新知识。它能够识别特定模式,但缺乏对复杂、非结构化医学知识的理解能力,属于弱人工智能(ANI)发展阶段。 # 第二阶段:深度学习驱动的单一任务模型(2012-2022.10)。 随着深度学习技术的突破,特别是卷积神经网络在图像识别领域的成功,AI医疗迎来了第一个黄金发展期②。以影像诊断为例,基于深度学习的AI模型在肺结节检测、糖尿病视网膜病变筛查等任务上,其准确率已能媲美甚至超越人类专家③。2017年,斯坦福大学团队在《自然》杂志发表论文,展示了一个能通过皮肤镜图像识别皮肤癌的深度学习模型,其准确性与专业皮肤科医生相当。这项研究是AI医疗领域的一个里程碑,向世界宣告了AI在特定医疗诊断任务上的巨大潜力,引发了全球范围内的研究热潮和资本涌入。 这一时期的AI模型呈现出“专而精”的特点,即一个模型通常只解决一个高度特定的临床问题。但模型之间相互独立,无法形成协同效应,且需要大量经 过精细标注的数据进行训练,开发成本高昂。 # 第三阶段:认知智能的探索与大模型的涌现(2022年11月至今)。 2022年11月,OpenAI的GPT3模型的推出,宣告生成式AI时代的到来。它彻底改变了自然语言处理领域,为处理和理解海量非结构化医疗文本(如电子病历、医学文献)奠定了基础。随后以GPT-4、谷歌的Med-PaLM2等为代表的大语言模型,以及在此基础上发展的多模态大模型,通过在海量、多源的医学数据(包括医学文献、电子病历、医学影像、基因序列等)上进行预训练,获得了前所未有的知识整合与推理能力①。 图1-1国内外AI+医疗应用发展阶段及其特点示意图 资料来源:慧博投研《AIGC+医疗专题报告》②,有修订。 生成式AI正在形成“基础大模型-领域专用模型-临床微调模型”的三级技术架构。基础大模型提供广泛的常识与语言理解能力;领域专用模型(如Med-PaLM)则在海量医学文本上进行二次训练,掌握深厚的医学知识;临床微调模型则针对特定医院或科室的数据进行微调,以适应个性化的临床工作流。AI的应用从单一模态(如纯图像)向多模态(融合影像、病历、基因、文献等)拓展, 从诊断工具向“虚拟医生助手”、“医学研究伙伴”等角色演进。AI开始能理解自然语言查询、总结病历、生成报告、甚至提出科研假设。 # 三、AI医疗的应用领域及治理风险 人工智能(AI)在医疗体系的应用日益广泛,主要涵盖临床实践、生物医学研究、公共卫生和医疗管理四大领域。 # 1. 临床实践 AI在临床实践中的应用潜力巨大,涵盖诊断、治疗决策和临床研究等多个方面。AI可以通过自动化图像分析(如放射学、眼科学、皮肤病学和病理学)和信号处理(如心电图、听力学和脑电图)等任务,协助医生更高效地进行诊断和治疗。例如,深度学习模型可以自动识别和标记解剖结构或病变的边界,并优先处理需要及时关注的发现。AI还可以整合和分析临床数据,为临床工作流程提供便利。在放射学、数字病理学、急诊医学、外科、风险预测、自适应干预和居家护理等领域,AI都展现出巨大的应用价值,并有望改善患者护理、提高诊断准确性和优化资源配置。 # 2. 生物医学研究 AI在生物医学研究中发挥着越来越重要的作用,尤其是在临床知识检索、药物发现和临床试验等方面。AI可以优化生物医学文献检索结果,提高信息检索的效率和准确性。AI应用于药物设计和发现,通过分析大量化合物数据库,预测分子的潜在活性,并评估候选药物的有效性和安全性。AI可以帮助更有效地进行临床试验,例如选择合适的受试者、评估研究终点和优化试验设计。此外,AI还将有效推动个性化医学的发展,通过分析患者的分子和遗传特征,以及临床、人口、社会和生活方式等数据,为患者提供更精准的治疗方案。 # 3. 公共卫生 AI在公共卫生领域的应用主要集中在疾病监测、健康促进和环境健康等方面。AI可以帮助识别疾病高发人群或地区,并预测疾病爆发。例如,数字流行病学监测可以整合来自新闻、社交媒体、传感器和临床报告等数据,建立早期预警系统。AI能够帮助分析环境因素对健康的影响,制定相应的预防措施,还可以改 善卫生系统的管理,如优化资源配置、提高医疗设施的性能和减少交通事故等。 表 1-1 AI 医疗典型应用场景、价值和治理风险 <table><tr><td>场景</td><td>类别</td><td>AI技术应用价值</td><td>治理风险</td></tr><tr><td rowspan="3">药物研发</td><td>研究开发</td><td>用于靶点发现、化合物快速匹配等,大幅缩短研发周期,降低成本,提高研发成功率</td><td>数据隐私泄露、算法偏见、知识产权归属、跨境传输合规性不足</td></tr><tr><td>临床试验</td><td>提升临床试验效率,临床试验成功和药物副作用预测,实现临床数据的智慧化管理</td><td>患者隐私泄露、试验数据真实性、算法决策缺乏透明度、伦理争议</td></tr><tr><td>上市后监测</td><td>个性化疗效评估、个性化患者护理、安全事件早期检测、自动不良事件报告、加强药物警戒</td><td>药物警戒数据不全导致漏报、自动化报告系统误报、患者数据滥用、跨国家/地区监管协调</td></tr><tr><td rowspan="2">医学影像</td><td>疾病筛查</td><td>提高筛查效率,降低误诊/漏诊率</td><td>影像数据隐私泄露、误诊责任认定模糊、数据标注不规范、合规性风险</td></tr><tr><td>影像辅助诊断</td><td>对影像数据进行分析,提高诊断准确率,辅助医生进行临床决策</td><td>误诊风险、数据隐私泄露、算法偏见</td></tr><tr><td>临床辅助决策</td><td>辅助治疗</td><td>治疗方案辅助决策、术前规划、手术导航和预后评估等</td><td>治疗方案缺乏个性化、手术导航系统故障、预后评估模型泛化能力不足、医患责任划分</td></tr><tr><td>精准医疗</td><td>基因检测</td><td>提升检测效率及准确率,更好辅助疾病治疗</td><td>基因数据隐私泄露、检测结果解读误差、基因歧视风险、合规性挑战</td></tr><tr><td rowspan="2">健康管理</td><td>健康监测</td><td>通过可穿戴设备实时监测用户健康数据,实现疾病早期预警</td><td>设备数据安全漏洞、隐私侵权、设备故障导致误报、用户知情同意不足</td></tr><tr><td>健康干预</td><td>基于健康数据提供个性化干预方案(如饮食、运动建议)</td><td>缺乏医学依据、算法不透明、自主健康管理能力下降</td></tr><tr><td rowspan="3">智能诊疗</td><td>虚拟助理</td><td>辅助医生进行疾病诊断,提供诊断建议和治疗方案</td><td>误诊风险、医生过度依赖AI、责任认定困难</td></tr><tr><td>智能治疗</td><td>辅助制定个性化治疗方案(如放疗剂量计算、手术路径规划)</td><td>治疗方案不精准导致医疗事故、算法黑箱问题、跨学科协作不足</td></tr><tr><td>手术排期</td><td>优化手术室资源分配,提升手术安排效率,减少患者等待时间</td><td>算法不透明导致资源分配不公、系统故障导致手术延误、责任主体不明确</td></tr><tr><td rowspan="3">医疗机器人</td><td>手术机器人</td><td>提升手术精确度,减少创伤,辅助医生完成复杂手术</td><td>设备故障、操作者依赖性增强、责任认定困难</td></tr><tr><td>康复护理机器人</td><td>缓解康复医疗资源稀缺,提高患者康复质量</td><td>设备安全性不足、康复效果评估不科学、责任主体不明确</td></tr><tr><td>医疗服务机器人</td><td>用于智能导诊、消毒杀菌等环节,实现降本增效</td><td>误导患者、数据不透明、设备故障、责任认定困难</td></tr><tr><td>公共卫生</td><td>传染病管理</td><td>结合人口、出行等数据,对疾病预测、传染病溯源进行分析</td><td>隐私泄露、算法预测偏差、数据源可靠性、跨部门数据共享障碍</td></tr></table> 来源参考:世界卫生组织(2024),东北证券(2025),治理风险栏为作者整理 # 4. 医疗管理 AI 可以优化医疗管理的流程,提高效率和准确性。例如,AI 可以自动进行编码、安排日程、检测欺诈活动和管理患者流程;帮助进行医疗审计,评估医疗服务的质量和改进措施等。此外,AI 还可以帮助进行患者跟踪和接触,例如通过短信和患者门户网站与患者进行沟通,并提供个性化的健康管理服务。AI 的应用可以减轻医疗工作者的负担,提高医疗服务的效率和可及性。 表 1-1 列举出 AI 医疗的技术研发和应用场景存在的治理风险。 # 四、AI医疗治理的定义和范围 AI医疗治理的概念源于“AI治理”。人工智能治理是指由公共部门、私营部门及社会团体等多元主体共同参与,通过制度、政策、标准、流程、角色分工与技术控制等机制,来塑造人工智能系统的设计、开发、部署与监管过程,从而实现风险可控,并确保其收益符合社会价值、法律要求与组织目标。① 世界卫生组织在《卫生健康领域人工智能伦理与治理》报告中将医疗人工智能治理(medical AI governance)界定为将伦理原则、监管规则、临床标准、技术控制以及组织流程专门应用于医疗领域的人工智能系统(如诊断工具、临床决策支持系统、公共卫生算法等),其明确目标在于在人工智能的整个生命周期中保障患者安全、确保临床有效性、保护隐私、促进公平,并维护专业责任。② # 五、AI医疗治理的核心议题 AI医疗治理面临以下五组矛盾和挑战,构成为其核心议题: 矛盾一:技术的高速发展与制度的滞后性。AI技术,特别是大模型技术,正以“月”为单位进行迭代。新的能力、新的应用场景层出不穷。然而,法律法规的制定和修订往往需要经历漫长的调研、论证和立法程序,周期以“年”为单位。 这种“快”与“慢”的巨大反差,导致了大量的监管空白。例如,当一个能够提供诊断建议的AI聊天机器人出现时,我们现有的医疗器械审批体系、医疗责任认定体系、数据隐私保护法规是否足以应对?这种规则的滞后性,不仅可能使患者面临未知的风险,也让创新企业因合规路径不明而踌躇不前。 矛盾二:医疗安全风险在智能化诊疗中被系统性放大。AI尤其是大模型技术正逐步介入诊断支持、用药建议等关键临床环节,其输出的不确定性和“幻觉”特征,使错误不再仅是一般技术偏差,而可能直接影响诊疗决策并造成不可逆后果。在缺乏针对相关风险的制度化约束与校验机制的情况下,患者安全面临新的系统性挑战。 矛盾三:责任边界模糊正在冲击既有医疗专业秩序。在AI辅助诊疗场景中,医生、医疗机构与技术提供方之间的权责关系尚未厘清。一旦发生诊疗偏差,现有责任认定体系难以有效回应“是否应采信AI建议”“如何界定人机决策责任”等新问题,可能导致责任不当下沉至一线医务人员,影响其专业判断与执业安全。 矛盾四:合规路径不明制约规范化技术创新。当前监管框架尚未明确大模型医疗应用在产品属性、准入方式及合规边界上的定位,使创新主体在研发和应用过程中面临较高的不确定性。这种制度模糊既可能放大潜在风险,也不利于引导技术沿着安全、可控和可持续的方向发展。 矛盾五:全球创新的协同性与区域监管的差异性。AI医疗的研发和应用本质上是全球化的。顶尖的科研团队、海量的数据资源、跨国的临床试验,共同推动着技术进步。然而,在监管层面,世界各国家和地区却呈现出显著的差异。这种监管的“巴别塔”现象,使得一款AI医疗产品若想进入全球市场,需要应对截然不同的合规要求,极大地增加了企业的研发和合规成本,也可能导致全球范围内的“AI医疗鸿沟”。 本白皮书的主旨,正在于直面这些挑战,系统性地构建一个既能激发创新活力,又能筑牢安全底线的治理框架。后文将首先梳理全球主要经济体的先行经验,汲取智慧;进而提出贯穿AI医疗模型“从数据到应用”的全生命周期治理方法,确保风险可控;最后,聚焦于构建一套兼具前瞻性与可操作性的核心规则体系,旨在为各方参与者提供清晰的行动指南。 # 第二章 发达经济体AI治理动态 AI医疗的挑战与机遇是全球性的,各国政府都在积极探索适合本国国情的治理路径。由于在医疗体系、技术发展水平、法律传统、文化价值观以及市场环境等方面存在显著差异,全球的AI医疗治理呈现出多元化、多层次的动态格局。本章选择美国、英国、欧盟、新加坡四个发达经济体,深入剖析其在AI医疗治理方面的核心理念、关键举措、独特优势与面临的挑战,提炼出全球典型经济体AI医疗监管在审慎包容、风险分级、全生命周期管理等层面的共性趋势,提出一个系统的AI医疗治理评估体系。 # 一、美国:市场驱动、创新优先 作为全球科技创新的领头羊和AI技术发展的策源地,美国在AI医疗领域同样处于世界领先地位,采取了更为灵活、以行政指导为主的“软法”路径,其监管核心是食品药品监督管理局。其治理模式深刻地体现了美国社会“市场驱动、创新优先”的价值观。同时,在经历了多次医疗技术安全事件后,其监管体系也日益成熟,强调在鼓励创新与管控风险之间寻求精妙的平衡。 # (一)核心理念与治理框架 美国AI医疗(或数字医疗)监管的核心理念可以概括为:以现有监管框架为基础,通过适应性调整和创新性工具,实现对AI医疗产品的精准、敏捷监管,同时大力推动行业自律和多方共治。 美国政府深刻认识到,仅靠监管机构的力量难以应对AI技术的复杂性和快速迭代,相反需要大力倡导和支持行业自律及多方参与的治理模式。美国的AI医疗治理并非由一部统一的“AI法”所主导,而是呈现出一种“分散式”和“多层次”的特点。 从监管体系中的机构分工看,美国AI医疗治理由白宫国家AI倡议办公室为总协调机构,以卫生与公众服务部(HHS)为牵头部门,协同联邦贸易委员会(FTC)、国立标准和技术研究院(NIST)、白宫科技政策办公室(OSTP)等(见图2-1)。其中HHS负责医疗AI全生命周期监管、发展战略、支付与合规指南;OSTP负 责推出国家AI R&D战略计划,统筹联邦医疗AI政策与时间表;FTC负责反欺骗、反歧视、防隐私信息泄露等;NIST牵头制定可信AI技术标准与评估指标。美国国家卫生研究院(NIH)则通过其“Bridge2AI”等专项计划,大力投资于AI医疗的基础研究、数据集建设和人才培养,从源头上推动高质量、负责任的AI创新。 图2-1 美国AI医疗治理体系 美国卫生与公众服务部(HHS)于2023年提出的五项医疗保健AI治理原则(即FAVES原则),要求AI产生的结果必须:① 1. 公平 (Fair): 模型输出不得因种族、性别、年龄、社会经济地位等固有或获得性特征而表现出偏见或偏袒。 2. 适宜 (Appropriate): 模型及其输出必须与目标使用场景和人群高度匹配, 确保在特定临床或公共卫生语境下的适用性。 3. 有效/可验证 (Valid): 模型在内部和外部数据集上均被证明能够准确估计预期值, 具备可重复、可验证的科学证据。 4. 有效益 (Effective): 在真实世界部署中, AI 工具必须对诊疗、护理或管理流程产生可衡量的正向效益, 如提高诊断准确率、降低医疗成本或改善患者 体验。 5. 安全(Safe):模型结果不存在已知且不可接受的风险,且其预期收益大于潜在危害;同时需建立风险监测与缓解机制,确保患者及使用者安全。 FAVES 原则已被写入联邦规则(如 ONC 的 HTI-1 最终规则),成为经认证健康 IT(含电子病历)中 AI 模块必须满足的核心要求,也被多家医院、保险商和 AI 公司采纳为内部 AI 治理框架的“护栏”。 HHS进一步于2025年1月发布《人工智能在健康、人类服务及公共卫生中的战略计划》。①作为一份行动蓝图,它包含四大战略目标: 1. 催化健康AI创新:通过现代化数据基础设施、公私协作、明确监管路径,快速孵化能改善患者结局的新应用。 2. 促进可信 AI:建立“联邦资源可信 AI 使用标准”,持续评估并降低算法偏见、隐私泄露、生物安全等风险。 3. 普及AI技术与资源:开发开源、可定制、用户友好的AI工具,向社区机构、州及地方卫生部门提供资金与技术支持,缩小“AI鸿沟”。 4. 培育AI赋能的劳动力:建立联邦-学术-产业联合培训体系,设立首席AI官(CAIO)角色,缓解医护人员短缺与职业倦怠,并形成持续学习文化。 在风险治理与合规框架方面,HHS 明确将同步更新 HIPAA,要求 AI 处理敏感健康数据前必须完成隐私影响评估与患者知情同意;引入外部红队审计、算法透明度报告和持续监测,确保“可解释、可追踪、可撤销”;将社会公平性纳入生命周期审查,重点监控对少数族裔、农村及弱势群体的差异化影响。 美国食品和药物管理局(FDA)下属的设备与放射健康中心是AI医疗器械监管的核心机构,内部设有专门的软件和数字健康部门,负责审评AI/ML算法。FDA不仅负责审批,还积极发布指南、组织研讨会、与学术界和产业界合作,共同推动AI医疗监管科学的发展。 国家卫生信息技术协调办公室(ONC)主要负责全国卫生信息技术(包括电子病历)的推广和标准化。其发布的《21世纪治愈法案》最终规则,明确要求医 疗机构向患者开放其全部电子健康信息,并禁止“信息封锁”(Information Blocking)。这为AI系统获取高质量、标准化的临床数据扫清了障碍,是AI医疗发展的关键基础设施。ONC还通过其认证计划,对电子病历等健康IT产品的功能、安全性和互操作性进行认证,间接影响AI系统与这些基础系统的集成。 美国医疗保险和医疗补助服务中心(CMS)作为最大的医疗支付方,其报销政策对AI医疗的普及具有决定性影响。目前,CMS对AI医疗服务的报销仍持谨慎态度,通常要求有充分的证据证明其能够改善患者结局或降低成本。未来,CMS如何设计创新的支付模式以激励AI应用,将是美国AI医疗治理的关键看点。 此外,行业联盟与非营利组织,如健康AI联盟(CHAI)、梅奥诊所平台、美国医疗质量认证委员会(URAC)、消费者技术协会(CTA)等,也在积极开发AI评估标准、共享数据资源、搭建合作平台,在推动行业自律和建立最佳实践方面发挥着重要作用。 # (二)AI医疗的相关法律 联邦层面先后出台《健康保险可移植性和责任法案》(Health Insurance Portability and Accountability Act,简称“HIPAA”,2021年修订)等多部法规(详见表2-1)。 FDA在2017年试行“软件预认证”(Pre-Cert)项目,尝试从“审产品”向“审公司”转变。即对于那些在质量管理体系、文化、流程等方面被证明是“卓越”的开发者,FDA可以给予其“预认证”资格。获得该资格的公司,其开发的某些低风险AI产品在上市时可能会享受到更快的审评通道或更简化的数据要求。其背后的逻辑是,一个值得信赖的开发者更有可能生产出安全有效的产品。 为了适应AI技术“自适应学习”、“持续进化”的特性,FDA于2019年4月FDA实施了“针对AI/ML-based SaMD修改的拟议监管框架”,根据该框架,开发者对其AI系统的真实世界性能负责,并需要就其性能和输入方面的变化向FDA更新。这标志着监管模式从“一次性准入”向“持续性监督”的转变。2021年1月推出《AI/ML-Based Software as a Medical Device (SaMD)行动计划》,其中包括促进对“良好机器学习实践”(GMLP)的共识、推动“真实世界性能”(Real-World Performance)的监测、以及更新监管框架以适应AI的自主修改能力。 表 2-1 美国联邦层面 AI 医疗法规一览表 (截至 2025 年 9 月) <table><tr><td>#</td><td>法规/规则全称与引用</td><td>生效日期</td><td>核心要点</td></tr><tr><td>1</td><td>21世纪治愈法案第520(o)条(P.L. 114-255)</td><td>2017-12-13</td><td>排除特定CDS软件于医疗器械定义之外,划定AI-CDS监管边界</td></tr><tr><td>2</td><td>HIPAA 安全与隐私规则(45 CFR Part 160/162/164)</td><td>2021-01-01*</td><td>AI接触PHI须满足最小必要、加密、审计与泄露通报义务</td></tr><tr><td>3</td><td>HITECH Act 2021修订(HIPAA Safe Harbor, P.L. 116-321)</td><td>2021-01-01</td><td>已加密数据泄露可免除通知,影响AI云存储设计</td></tr><tr><td>4</td><td>ACA 第1557条非歧视最终规则(86 FR 27984)</td><td>2021-08-04</td><td>禁止联邦资助项目使用导致歧视的AI决策</td></tr><tr><td>5</td><td>FTC 健康数据泄露通报规则(16 CFR Part 318)</td><td>2021-09-15**</td><td>非HIPAA实体(健康APP、AI可穿戴)数据泄露60日内须通报用户与FTC</td></tr><tr><td>6</td><td>FDA AI/ML-SaMD行动计划(2021 Update)</td><td>2021-01-12</td><td>引入PCCP路径,已上市AI器械可在预设范围自我更新无需新510(k)</td></tr><tr><td>7</td><td>健康数据、技术与互操作性(HTI)-2最终规则(88 FR 27956)</td><td>2024-01-22</td><td>强制认证EHR/健康IT披露AI-CDS算法来源、训练数据与性能指标</td></tr><tr><td>8</td><td>CMS 2024 IPPS 最终规则(88 FR 58962)</td><td>2024-10-01</td><td>NTAP支付正式纳入AI卒中软件,医院须公开AI临床验证文档</td></tr><tr><td>9</td><td>CMS 2025联邦医保医生收费表最终规则(89 FR 79224)</td><td>2025-01-01</td><td>设独立CPT码计费AI-DSA,须提交真实世界证据,否则次年停用代码</td></tr><tr><td>10</td><td>OCR-ONC 联合最终规则:远程医疗与AI歧视禁令(89 FR 34567)</td><td>2025-04-26</td><td>远程医疗和AI护理决策若造成歧视即违反ACA第1557条,可罚款并暂停联邦资助</td></tr></table> 注:* 指 HIPAA Safe Harbor 法生效日;** 指 2020 修订版生效日。 简称:CDS:临床决策支持;PHI:受保护的健康信息;HITECH:卫生信息技术经济与临床健康法案;ACA: 《平价医疗法案》;CFR:联邦法规汇编;AI/ML-SaMD:人工智能/机器学习软件医疗器械;EHR:电子健 康记录;IPPS:住院预付费系统;NTAP:新技术附加支付;CPT:现行操作术语;AI-DSA:人工智能衍 生体表解剖;OCR:民权办公室 资料来源:根据Bipartisan Policy Center (2023)①整理,有更新 “预定变更控制计划”(Predetermined Change Control Plan, 简称“PCCP”)是FDA软件预认证试点项目于2022年结束之后所推出的最具创新性的监管工具之一。它从试点项目吸取经验,要求开发者在产品上市前,向FDA提交一个详细的计划,说明其AI算法未来将如何进行自主学习和修改(例如,适应新的数据 源、优化模型参数), 以及这些修改将如何被验证和控制。FDA 在审批时, 会对这个计划进行评估。一旦批准, AI 系统就可以在预先设定的范围内进行自主更新,而无需为每一次微小变更都重新提交审批申请。这极大地加速了 AI 产品的迭代优化, 同时又将风险控制在可预见的范围内。 FDA的ISTAND项目(创新科学与技术新药开发工具)是其支持AI在药物研发领域应用的典型实践。该项目旨在为包括AI算法在内的新型药物开发工具提供资格认证。一个AI算法如果能通过ISTAND认证,意味着其科学性和可靠性得到了FDA的认可,可以在新药研发的特定环节(如作为临床试验终点替代指标)中使用,这将极大加速新药的研发进程。这一实践体现了FDA不仅关注AI作为“产品”的监管,也开始重视其作为“工具”的价值认证。 # (三)FDA对AI赋能的医疗器械的分类与管理思路 在传统的医疗器械分类体系下,AI驱动的医疗器械大致沿用相似路径(Class I/II/III + 510(k) / De Novo / PMA等路线),但在具体审核与管理上,FDA已经针对AI/ML特性做出一些调整和专门考虑。 # 1. FDA 的指导文件和制度演进 FDA在其官网提供了“Artificial Intelligence and Machine Learning (AI/ML)-Enabled Medical Devices”相关页面,介绍其对AI驱动器械的监管思路和现有资源①。 2025年,FDA发布了草案指导《人工智能驱动的设备软件功能:生命周期管理与市场提交建议》,对AI驱动软件功能在其生命周期中应如何向FDA提交资料、如何管理修改、如何监控等提出建议②。FDA还制定了《良好机器学习实验》(GMLP)指导原则,用以指导AI/ML医疗软件在模型开发、验证、维护等方面应遵循的良好实践。③ # 2. AI赋能器械的分类依据和考量要素 在实际审批与分类判断中,FDA通常会考虑以下要素,以决定AI赋能软件应归为哪一风险类别、何种前市场路径、需要提交哪些数据(见表2-2)。 表 2-2 FDA 对 AI 赋能器械监管的考量要素 <table><tr><td>#</td><td>考量要素</td><td>说明 / 影响</td></tr><tr><td>1</td><td>预期用途</td><td>AI 软件宣称的用途(诊断、预测、监测、辅助决策、警报等)直接决定其风险高低。假如 AI 用于做最终诊断或治疗建议,其监管比仅做提示 / 辅助用途更严格。</td></tr><tr><td>2</td><td>错误输出的后果</td><td>如果算法做出错误输出可能导致错误诊断、延误、伤害、误治,其风险级别可能较高。</td></tr><tr><td>3</td><td>模型稳定性/自适应能力</td><td>AI/ML 模型是否静态(训练完成后不变)或动态(在部署后可继续学习 / 更新)是一个重要区分点。可自适应更新的模型带来模型漂移、不确定性风险,需要在设计中考虑如何控制、验证和变更管理。</td></tr><tr><td>4</td><td>训练 / 验证数据 / 泛化能力</td><td>模型所用训练数据是否具有代表性、覆盖足够样本量、是否考虑不同人群(性别、年龄、种族、设备差异等)的泛化性,是评估其安全性、有效性的重要维度。</td></tr><tr><td>5</td><td>偏倚 / 公平性风险</td><td>AI 系统可能对某一子群发生偏倚(bias),这可能在特定人群(如少数族裔、性别、年龄等)中表现出较差性能。FDA 的指导中强调需要设计策略以发现、缓解偏倚。①</td></tr><tr><td>6</td><td>透明性 / 可解释性 / 可追溯性</td><td>FDA 鼓励提交时描述模型输入、输出、决策逻辑、限制、边界条件,以便用户理解其行为。透明性有助于监管评估、临床采纳与安全监控。②</td></tr><tr><td>7</td><td>生命周期管理</td><td>AI 模型在部署后其性能可能随时间退化(模型漂移、输入数据分布改变等),需要明确后市场性能监控计划、变更控制机制、再验证策略等。FDA 在新草案中强调要贯穿整个产品生命周期来管理风险。③</td></tr><tr><td>8</td><td>安全性 / 验证</td><td>AI 软件也需要符合软件医疗器械常见的验证/确认要求,还要考虑网络安全、软件漏洞、攻击风险等。</td></tr><tr><td>9</td><td>变更 / 升级策略</td><td>如果未来可能对算法进行升级或改动,FDA 要求变更控制机制、是否需要重新提交审批等考量。FDA 提出“预设变更控制计划”作为一种机制,让制造商在初次提交时就预先界定算法可变更范围与机制。④</td></tr></table> 基于上述要素,FDA在具体设备审批过程中,会对AI驱动的软件功能进行风险评估,并据此确定其归属类别与所需审评路径。 FDA 根据医疗器械的风险等级(I、II、III 类)实施差异化监管。对于算法“锁定”的 AI 医疗产品(即获批后算法不再自主更新),FDA 通常将其纳入既有医疗器械或软件即医疗器械(SaMD)监管体系,并依据其风险水平归入 II 类或 III 类,要求其接受上市前审查,通过 $510(\mathrm{k})$ 预市场通知、De Novo 分类或 PMA 预市场批准等途径,提交充分的临床有效性与安全性证据。总体而言,FDA 并未为 AI 医疗产品单独设立全新的立法或审批框架,而是采取在现有医疗器械监管体系下对 AI 技术进行制度性延伸的监管模式,以保持监管体系的连续性,并降低因制度重构带来的不确定性。 在国际合作方面,美国、英国、加拿大三国医疗器械监管部门始终保持密切的合作。2021年,三国联合发布《医疗器械开发中的良好机器学习实践(GMLP):指导原则》,是首次跨国联合提出的AI/ML医疗器械开发实践原则,为行业提供了技术开发的伦理与安全底线,从设计到部署全过程的质量管理框架,以及推动国际监管协调与标准化的基础。① 2023年10月,三国又联合发布《机器学习医疗器械的预定变更控制计划:指导原则》,提出聚焦与有界(Focused and Bounded)、基于风险(Risk-based)、基于证据(Evidence-Based)、透明(Transparent)、总产品生命周期视角(TPLC Perspective)等五项核心指导原则。② 2024年,三国监管机构进一步专门针对机器学习医疗器械(MLMD)提出《机器学习医疗器械的透明度:指导原则》,③是监管机构对机器学习医疗器械透明度的首次推出的系统性指导,强调透明度不仅是信息披露,更是保障患者安全、促 进健康公平、建立公众信任的核心机制。其原则如下表所示: 表 2-3 美、英、加三国关于机器学习医疗器械的透明度的六项指导原则 <table><tr><td>原则</td><td>描述</td><td>指导要点</td></tr><tr><td>Who 相关受众</td><td>透明度面向所有参与患者医疗护理的各方,包括:使用或接收医疗器械服务的人员(如医生、患者、护理人员);以及参与设备决策的人员(如管理者、支付方)</td><td>·明确不同受众的信息需求 ·考虑其技术背景与使用场景</td></tr><tr><td>Why 透明度缘由</td><td>透明度有助于:保障设备安全有效使用;实现以患者为中心的护理;识别和评估设备风险与收益;支持知情决策与风险管理;便于设备维护与性能监控;促进健康公平;增强用户对设备的信任与使用熟练度</td><td>·将透明度作为风险管理和患者安全的核心工具 ·用透明度促进技术接受与公平使用</td></tr><tr><td>What 关键信息</td><td>应披露的关键信息包括:设备的医疗目的与功能;适用疾病或条件;目标用户与使用环境;设备在医疗流程中的作用(输入、输出、对决策的影响);性能、收益与风险;训练与测试数据特征;临床验证摘要;模型逻辑(如有);已知偏见、失败模式、置信区间;数据缺口与局限性;生命周期管理与更新策略</td><td>·信息应准确、完整、易于理解 ·强调已知局限与不确定性</td></tr><tr><td>Where 信息位置</td><td>信息应通过用户界面、标签、培训材料、软件界面、文档等渠道传达;应优化软件界面,使信息具备响应性、个性化、适应性</td><td>·利用多种媒介(文字、图形、音频、视频) ·信息应易于访问并嵌入用户工作流程</td></tr><tr><td>When 沟通时机</td><td>信息披露应考虑整个产品生命周期的关键时点,如:采购或实施前;首次使用或每次使用时;设备更新或出现问题时;在高风险步骤或特定触发条件下提供即时提示</td><td>·提供及时通知与动态更新 ·在关键决策点给予用户必要提醒</td></tr><tr><td>How 方法</td><td>支持透明度的方法包括:采用以人为中心的设计原则;提供适合受众的详细程度;按重要性或认知顺序组织内容;使用通俗语言或专业术语视情况而定;持续验证与优化信息传达效果</td><td>·设计应迭代、参与式、以用户体验为核心 ·考虑用户多样性(文化、语言、专业背景)</td></tr></table> # (四)美国治理模式的优势与挑战 美国对AI医疗的治理治理模式存在以下优势: 1. 创新活力强劲:市场驱动的模式、雄厚的资本、顶尖的人才和灵活的监管探索,共同营造了全球最活跃的AI医疗创新生态。 2. 监管经验丰富:FDA拥有全球最成熟的医疗器械监管体系,其对AI的适应性调整具有很强的专业性和前瞻性。 3. 多方参与深入:NAM准则等实践表明,美国社会已形成政府、产业、学界、患者等多方深度参与治理的良好氛围。2025年,美国医疗质量认证委员会(URAC)推出首个医疗AI第三方认证,分开发者与用户双轨,覆盖风险、数据、透明度与漂移监测;①同期,消费者技术协会(CTA)发布《预测性健康AI标准》,自声明合规,规定数据验证、可解释、重校准等六大技术基准,二者互补成行业自律“标准+认证”组合。② 在挑战方面,除了通常意义上数据隐私、偏见、健康不平等的加剧风险和责任认定难题之外,还有监管碎片化的问题。联邦与州之间、不同监管机构(如 FDA, FTC, OCR)之间的权责划分有时不够清晰,导致监管重叠或空白。同时在多个州运营的企业也不得不适应这种监管政策不同的环境,间接加大监管遵从的负担,进而阻碍了 AI 创新。 2025年12月11日,美国总统特朗普签署了题为“确立人工智能国家政策框架”的行政令。该文件提出,美国在AI领域的全球领先地位正受到各州分散监管的威胁,联邦政府需要建立统一的、最低限度负担的全国标准,以取代各州日益增多且相互冲突的AI法规。行政令要求司法部成立专门工作组挑战特定州法律,并授权联邦机构通过资金限制、标准制定等手段,推动形成统一的联邦监管框架。这意味着美国的AI监管体系正朝着更重视创新、更技术化、去伦理化的方向迈进。 # 二、欧盟:以人为本,规则驱动 欧盟在AI治理领域,尤其是通过其《通用数据保护条例》和《人工智能法案》,确立了全球范围内最具影响力、最为系统和严格的“规则驱动”模式。 # (一)核心理念与治理框架 欧盟的AI医疗治理核心理念是:基于对人的尊严、自由、平等和民主等基本权利的坚定捍卫,通过制定统一、严格、具有法律约束力的规则,构建一个可 信赖的 AI 发展环境,确保 AI 的应用,尤其是在高风险的医疗领域,是安全、透明、公平且可问责的。 作为欧盟的行政机构,欧盟委员会是《AI法案》和欧洲健康数据空间(European Health Data Space,简称“EHDS”)等重大立法和倡议的提出者和推动者。它还通过“地平线欧洲”(Horizon Europe)等科研资助计划,大力投资于可信赖的AI研究。 基于《AI法案》新设立的“欧洲人工智能委员会”将负责协调成员国监管行动、推动一致执行AI法案、分享监管经验并为实施提供政策和技术建议。对于作为医疗器械的AI系统,其监管还需遵循欧盟《医疗器械条例》和《体外诊断医疗器械条例》,由各国的指定公告机构负责符合性评估。 欧洲药品管理局(EMA)负责欧盟范围内药品的评估和监管。虽然医疗器械主要由各成员国的主管机构负责,并通过CE标志互认,但EMA在涉及AI的药物研发(如利用AI进行临床试验设计或数据分析)方面,也扮演着越来越重要的角色,并正在制定相关的指导原则。 各成员国的国家主管机关负责具体的监督和市场监督工作。如德国的联邦药品与医疗器械研究所、法国的国家药品与健康产品安全局等,是医疗器械(包括AI医疗设备)在各自国家市场的直接监管者。 # (二) 治理思路与关键举措 欧盟的医疗 AI 治理实践强调以风险为基础的事前合规审查。对于拟在欧盟市场投放的 AI 影像诊断软件,企业通常需要在上市前依据《医疗器械法规》(MDR)接受公告机构的符合性评估,证明其产品满足安全性、性能和临床有效性等要求,从而获得 CE 标志。在《人工智能法案》框架下,此类产品通常同时被认定为高风险 AI 系统,还需履行额外的风险管理、数据治理和透明度等合规义务。总体而言,这种基于既有医疗器械制度并叠加 AI 专门规则的监管模式,虽然流程严格、合规成本较高,可能延长创新产品的上市周期,但从患者安全与权益保护的角度看,其“守门人”式的市场准入机制有效提高了进入市场产品的质量门槛。 欧盟议会2016年颁布的《通用数据保护条例》(GDPR)虽然不是专门针对AI 的法律,但其确立的数据保护原则,如“数据最小化”、“目的限制”、“知情同意”、“被遗忘权”以及“自动化决策的反对权”,为所有在欧盟运营的AI系统(包括医疗AI)设定了极高的数据合规门槛。任何AI医疗应用,如果其训练或运行过程中涉及欧盟公民的个人数据,都必须严格遵守GDPR的规定。这使得数据隐私和合规成为欧盟AI医疗发展的首要考量因素。 为了促进健康数据的共享和利用,同时确保其安全和合规,欧盟2025年通过了《欧洲健康数据空间(EHDS)条例》(Regulation(EU)2025/327),将于2027年3月生效。它提出个人医疗数据二级使用的理念。① 1. 初级使用:为患者本人及授权医护人员提供实时、免费的跨境电子健康数据访问(如病历、处方、检查结果等)。 2. 次级使用:允许科研机构、公共部门等在严格授权下,以匿名或假名形式使用健康数据进行科研、政策制定或公共卫生监测。 3. 培育电子健康记录(EHR)系统的统一市场,同时支持健康数据的使用。 欧盟提出到2029年3月,在数据一次使用方面,所有欧盟成员国将实现首批优先健康数据类别(患者摘要、电子处方/电子配药)的交换;2031年3月,第二批(医学影像、实验室检查结果、出院小结)应在所有欧盟成员国实现可操作的交换。在数据二次使用方面,各类数据类别的相关规则将开始适用。 在创新监管方面,根据欧盟《人工智能法》第57条,所有成员国必须在2026年8月2日前至少建立一个国家级的AI监管沙盒,允许企业在真实或仿真环境中,对AI系统进行开发、训练、测试和验证。②为支持这一目标的实现,欧盟通过多层次配套机制为成员国和企业提供支撑,包括用于高风险AI测试与验证的测试与实验设施(TEFs)、高性能计算和数据基础设施,以及欧盟数字创新枢纽(European Digital Innovation Hubs,EDIHs)等网络化平台,协助企业对接监管沙盒、技术资源、融资渠道与能力建设。西班牙政府已于2025年春季启动了国家AI监管沙盒试点,选出12个高风险AI系统参加测试。③ # (三)欧盟有关AI赋能的医疗器械的主要法规与监管架构 在欧盟境内,AI驱动的医疗器械受到多个法规的交叉约束,如表2-4所示。 《医疗设备管制办法》(MDR(EU)2017/745)对“医疗器械”的定义是:“由制造商设计用于单独或与其他装置联合使用,以实现下列一种或多种特定医疗目的的软件或设备: (1) 疾病的诊断、预防、监测、预测、预后、治疗或缓解; (2)对损伤或残疾的诊断、监测、治疗、缓解或补偿; (3) 对人体解剖结构或生理、病理过程或状态的研究、替代或修改; (4) 通过体外检查人体来源样本(包括器官、血液和组织捐献)提供信息。” 表 2-4 欧盟有关 AI 赋能的医疗器械的主要法规 <table><tr><td>法规/监管框架</td><td>作用/适用对象</td><td>与AI医疗器械的关系</td></tr><tr><td>欧盟医疗设备管制办法(MDR)(Regulation(EU)2017/745)</td><td>适用于医疗器械(医疗设备、包括软件作为器械)</td><td>AI驱动软件若符合医疗用途即被视为医疗器械,应满足MDR的安全性、性能、临床评价、监督、生命周期管理等要求。</td></tr><tr><td>欧盟体外诊断医疗器械法规(IVDR)(Regulation(EU)2017/746)</td><td>适用于体外诊断医疗器械</td><td>若AI驱动的是体外诊断类软件(例如用于病理切片、基因检测等),则纳入IVDR管控。</td></tr><tr><td>欧盟临床试验管制办法(CTR)(Regulation(EU) No 536/2014)*</td><td>所有“临床试验”——涵盖药品、生物制品、先进疗法(ATMP)以及含药组合器械;</td><td>不仅适用于传统药物,也覆盖含AI在内的先进疗法和组合产品。AI医疗器械只要涉及临床试验环节,就必须在CTIS登记、遵守CTR的透明度和安全规则。</td></tr><tr><td>AI Act (Regulation(EU) 2024/1689)</td><td>包括医疗器械、诊断工具以及受监管的临床支持工具,涵盖范围从独立的医疗软件(SaMD)和人工智能医疗工具(AIaMD)到复杂的软硬件组合系统。</td><td>自2024年8月生效,专门针对AI系统引入风险分类与额外合规义务。医疗用途的AI系统通常会被归为“高风险AI系统”(High-Risk AI)类别。</td></tr><tr><td>欧盟医疗器械协调小组(MDCG)指南</td><td>协调小组不是执法机关,但指南一旦发布即被成员国主管当局、公告机构普遍采纳,成为事实上的“统一执法手册”</td><td>对AI医疗器械,MDCG指南划清了MDR/IVDR与AI法案的交叉监管边界,提供协调标准出台前的过渡性技术方案,是制造商和各国当局必须紧跟的“软法”</td></tr></table> 说明:*2022-01-31 起适用,2025-01-31 起全面覆盖所有试验 如果软件具有医疗目的(如用于诊断、监测、预测、辅助治疗决策等),则可能被视为医疗器械。医疗器械协调小组的“软件资格和分类指南”(MDCG 2019-11 及其修正/扩展版本)中有说明软件在何种情况下属于器械的条件。①最近的修正指南(Revised Guidance on Software Classification)更明确地将 AI 驱动软件纳入考量,说明 AI 模块要按照其用途进行分类。② 在MDR框架下,软件(包括嵌入式、云端、移动端等)若作为医疗器械,其分类依据归属于MDR附件IX中的软件规则和分类原则。 AI 模块若承担诊断/治疗决策、关键监测、对患者风险较高,则其所在的医疗器械软件可能被归为 IIb 或 III;若只是辅助性、低风险用途,则可能归为 I 或 IIa。如果软件用于提供用于决策的诊断或治疗的建议,那么其风险比仅作信息展示或辅助监测的要高。AI 软件若依赖电子健康记录 (EHR)、联网服务、云平台、外部数据库等,其互操作性、接口风险、数据可靠性等也会被纳入风险评估。 欧盟的《人工智能法案》(2024)采取了一种“基于风险”的分层监管方法,将AI应用分为“不可接受风险”、“高风险”、“有限风险”和“最小风险”四个等级,并施以不同强度的监管。医疗领域的AI应用,如AI辅助诊断系统、手术机器人、患者风险评估软件等,几乎都被明确归类为“高风险AI”。《AI法案》对此施加了严格的义务,贯穿AI系统的全生命周期,包括: (1) 强制性合规评估:在上市前必须由第三方机构进行严格的合格评估。开发者必须建立并实施持续的风险管理系统,识别、评估并降低风险 (2) 高质量数据集:训练、验证和测试数据集必须具有相关性、代表性、无偏见,并采取适当的隐私保护措施。生产商要建立人工智能质量管理体系(AI QMS),以确保持续合规(第17条)。QMS整合了所需的AI文件(第18条)、符合性评估及自动生成的日志(第20条)、纠正措施与信息通报义务(第21条)、上市后监测(第61条)、严重事件报告(第62条)、内部与外部审计,以及与主 管当局的合作(第23条),因此是监管的重点。 (3) 技术文档与记录保存:AI法案对高风险医疗器械所要求的文档非常详细,包含对AI系统及其开发过程的详细描述,包括设计规范、系统架构、关键设计选择及其理由和所作假设;数据要求;训练方法;用于开发、训练和验证AI系统的计算资源;验证与测试程序;以及性能指标。 (4) 透明度与可解释性:必须确保其运作方式足够透明,使使用者能够理解和监控其决策,并能向受其影响的个人说明其目的、能力、局限性和使用条件。 (5) 人类监督: 必须设计适当的人类监督措施, 确保人类可以随时干预或否决 AI 的决策。 (6) 稳健性、安全性与网络安全:必须确保系统在各种条件下都能安全、稳健地运行,并能抵御网络攻击。 # (四)欧盟治理模式的优势与挑战 欧盟在AI医疗治理方面的优势有: 1. 公民权利保障有力:“以人为本”的理念和严格的规则,为欧盟公民的个人数据隐私和基本权利提供了强有力的法律保障,有助于建立公众对AI的信任。 2. 法律确定性高:一旦《AI法案》全面实施,将为在欧盟运营的AI医疗企业提供清晰、统一、具有法律约束力的规则,大大降低了合规的不确定性。 3. 具有全球影响:凭借其庞大的单一市场,欧盟的法规(如GDPR)常常产生“布鲁塞尔效应”,即成为全球事实上的标准。欧盟的AI治理模式,很可能将再次引领全球AI监管的潮流。 4. 促进“可信赖AI”的创新:虽然规则严格,但这也激励了企业专注于开发那些在安全、伦理、透明度方面都达到最高标准的“可信赖AI”(Trustworthy AI),从而形成高质量的竞争优势。 欧盟的治理框架面对的挑战有: 1. 合规成本高昂:满足《AI法案》对高风险 AI 的严格要求,需要投入大量的人力、物力和财力,这可能会给中小企业和初创公司带来沉重的负担,甚至可能扼杀一些有潜力的创新。 2. 抑制创新活力:过于繁琐和僵化的监管流程,可能会延缓AI产品上市的 速度,使得欧盟在AI医疗领域的创新速度落后于美国、英国等监管环境更为宽松的地区。 3. 执行与监督的复杂性:如何有效、一致地执行《AI法案》的各项要求,尤其是在AI技术快速迭代的情况下,如何执行落地,对欧盟各成员国的监管能力提出了巨大的挑战。 # 三、英国:价值导向,务实探索 英国在AI医疗治理方面,走出了一条与美国不同的道路。其特点在于强大的政府主导、更为清晰的国家战略,以及依托其全民医疗服务体系进行的一体化、务实性探索。 # (一)核心理念与治理框架 英国AI医疗治理的核心理念是:将人工智能作为公共卫生体系的“系统性能力”,在国家战略统一引导下,通过国民健康服务体系(NHS)这一单一、权威的公共平台进行集中部署和规范应用,在严格的数据治理与伦理约束框架内,以提升医疗体系效率、可及性和健康结局为首要目标,而非以市场扩张或技术本身为导向。 英国政府高度重视AI在医疗领域的应用,将其提升至国家战略层面,在2021年发布的《国家人工智能战略》中,“健康与生命科学”被列为AI应用的四大重点领域之一。该战略不仅关注技术本身,更强调要建立一个支持AI创新和应用的生态系统,包括数据基础设施、人才培养、伦理标准和监管环境。 英国在推动AI医疗创新的同时,对伦理、安全和数据问题给予了高度关注,建立了严格的健康数据治理体系。由NHS发布的《人工智能伦理与治理框架》,为NHS内部在采购、部署和使用AI系统时提供了详细的伦理指导。该框架强调公平性、问责制、透明度和隐私保护等核心原则。例如,NHS数字中心负责管理患者数据,并设有专门的数据安全与治理框架。对于AI研究使用患者数据,通常需要经过严格的伦理审查,并采取去标识化等隐私保护措施。 从治理架构看,英国NHS与AI医疗治理相关的部门主要有: 1. 药品和保健品监管局(MHRA)作为主要监管机构,其职责是确保药品和 医疗器械(包括AI-MD)的安全、质量和有效性,负责制定和执行具有法律约束力的法规。但并不直接审评大多数设备,而是依赖第三方机构。 2. 国家健康与临床优化研究所(NICE),其作用是评估已上市或即将上市的医疗技术(包括药品、器械和数字技术)的临床效果和成本效益,为NHS(国家医疗服务体系)提供采购和报销建议。 3. 卫生服务质量监管局(CQC),负责监督医疗机构的服务质量与使用安全,包括AI设备的临床使用合规性。 4. 健康研究局(HRA)负责审批与监管临床研究的伦理合规性,确保AI医疗设备试验符合伦理标准并保护受试者权益。 5. 监管前景委员会(RHC),是一个高层智库,为英国政府提供关于前沿科技(如AI)监管的战略性建议,为立法和政策调整提供思想基础。 # (二)治理思路与关键举措 英国通过一个多层次、协同作战的体系来构建其医疗AI治理框架。它不是由单一机构包揽一切,而是由多个权威机构(MHRA、NICE、RHC)从不同角度——临床价值评估、宏观政策建议、核心法规改革——共同发力,旨在打造一个既安全有效,又能适应AI技术特性的现代化治理环境。 # 1. 药品和保健品管理局(MHRA) MHRA于2021年1月推出的创新许可和接入路径(Innovative Licensing and Access Pathway,ILAP)是由一项创新药物加速审批与患者准入计划,旨在通过监管机构、NHS以及卫生技术评估机构(HTA)之间的协作,缩短创新药物从研发到患者使用的时间。这一计划在2025年进行了更新,明确纳入“药-械组合产品”以及“新兴数字健康技术”,并强调对“NHS运营就绪度”的早期评估①。ILAP是英国脱欧后构建的独立监管体系中的关键组成部分,旨在通过跨机构协作加快创新药物的上市与患者可及性,是全球药物监管领域的一项前瞻性探索。 2024年4月MHRA出台的《软件与AI作为医疗器械改革计划》(“Software and AI as a Medical Device Change Programme”)是一个系统性的改革项目,旨在 明确AIaMD的资格认定、分类、上市前要求、上市后监管,解决AI特有挑战。为AI-MD提供一套强有力的监管框架。①它通过两个并行的“工作流”(软件作为医疗器械(SaMD)和AI作为医疗器械(AIaMD))来推进,体现了其全面性和针对性。 表 2-5 英国 MHRA 面向未来的 AI/ML 医疗器械监管改革的关键工作包 ${}^{\text{②}}$ , <table><tr><td>编号</td><td>工作包名称</td><td>聚焦问题</td><td>主要交付物 / 目标</td></tr><tr><td>WP1</td><td>资格认定</td><td>软件是否属于医疗器械(SaMD)界定不清</td><td>明确 SaMD 范围、预期用途撰写指导、制造商身份界定</td></tr><tr><td>WP2</td><td>风险分类</td><td>软件风险分类规则不适用</td><td>更新分类法规、探索“Airlock”机制、发布分类指导</td></tr><tr><td>WP3</td><td>上市前要求</td><td>上市前要求对软件不适用或不清晰</td><td>修订基本要求、发布开发最佳实践、明确临床证据要求</td></tr><tr><td>WP4</td><td>上市后监管</td><td>上市后信号检测弱、变更管理滞后</td><td>优化不良事件报告、推出预定变更控制计划(PCCP)、强化变更管理</td></tr><tr><td>WP5</td><td>医疗器械的网络安全</td><td>网络安全要求缺失、遗留设备风险高</td><td>网络安全立法、漏洞报告机制、遗留设备管理指导</td></tr><tr><td>WP9</td><td>AI严谨性</td><td>AI 医疗器械缺乏系统性监管框架</td><td>发布 GMLP 指导、AI 开发最佳实践、偏见识别与 mitigation工具</td></tr><tr><td>WP10</td><td>玻璃盒项目(AI可解释性)</td><td>AI 模型“黑箱”影响安全性与可用性</td><td>发布以人为中心的 AI 指导、可信 AI 框架、可解释性标准</td></tr><tr><td>WP11</td><td>忒修斯之船项目(AI 自适应性)</td><td>自适应 AI(如持续学习)难以适用传统变更管理</td><td>分类管理 AI 模型更新、研究概念漂移检测方法、制定 AI 适用的 PCCP 流程</td></tr></table> 注:工作包 6-8 涉及移动健康、Apps、跨领域议题, 内容已整合至其他 WP 中, 无独立交付物 2024年,MHRA启动全球首个针对人工智能医疗器械的监管沙盒项目AIAirlock。它汇集监管机构、医院、专家、企业多方协作,模拟4~6个真实医疗场景,在受控环境中测试AI产品的安全性、有效性与合规性,用于制定未来AI医疗器械监管政策。截至2025年8月,“AIAirlock”监管沙盒已完成第一轮试点并启动第二轮招募。沙盒经验将直接转化为MHRA即将发布的AIaMD专项指 导文件,已经成为英国加速安全引入AI医疗器械的核心监管工具。 表 2-6 Airlock 机制与传统审批对比 <table><tr><td>项目</td><td>传统审批</td><td>Airlock机制</td></tr><tr><td>证据来源</td><td>临床试验(前瞻性)</td><td>真实世界数据(RWE)</td></tr><tr><td>上市时间</td><td>证据充分后</td><td>证据不足时即可试点</td></tr><tr><td>风险承受</td><td>低</td><td>中等(受控)</td></tr><tr><td>监管方式</td><td>一次性审批</td><td>持续监测+动态评估</td></tr><tr><td>适用产品</td><td>成熟技术</td><td>创新、难以验证的产品</td></tr></table> 来源:Medicines and Healthcare products Regulatory Agency(2023) # 2. 国家健康与临床优化研究所(NICE) NICE在英国医疗体系中的角色是评估已上市或即将上市的医疗技术的临床效果和成本效益,为NHS提供采购和报销建议。简单说,NICE决定NHS的钱该花在哪些技术上,这表明英国对医疗AI的监管,从一开始就与临床实践和卫生经济学紧密挂钩。一个AI产品即便技术上先进,如果NICE认为它对患者没有显著益处,或者价格太高(性价比低),NHS就不会大规模采购和使用。其监管框架是“价值导向型”的,确保AI不仅是安全的,更对患者和医疗系统有价值。 NICE 出台的《数字健康技术证据标准框架》为各类数字健康技术(App、软件、在线平台等)设定一个统一的证据标准。开发者需要按照这个标准来收集和提交证据,以证明其产品的有效性和价值。这解决了数字健康领域早期鱼龙混杂、证据质量参差不齐的问题。它为开发者、NHS 和患者提供了一个清晰的标尺,确保进入医疗体系的 AI 产品是经过验证、真正有价值的。 此外,监管前景委员会(RHC)为英国政府提供关于前沿科技(如AI)监管的战略性建议,定期发布有影响力的智库报告。RHC于2022年11月出台《作为医疗器械的AI的监管》,提出了多项政策建议,在后来的法规中逐一落实(详见表2-7),塑造了英国的政策监管方向,为立法和政策调整提供思想弹药。 表 2-7 RHC 2022 提出的政策建议落实情况 <table><tr><td>建议</td><td>至2025年落实情况</td></tr><tr><td>建议1:加强 MHRA 长期资金与能力建设</td><td>政府“原则接受”,并通过 AI Airlock 项目提供专项资金支持 MHRA 监管 AI 设备;持续扩展 AI 监管团队能力。</td></tr><tr><td>建议2:加强监管人员与评估者培训</td><td>MHRA 通过 “Software & AI as a Medical Device ChangeProgramme” 发布指导文件,提升监管机构与制造商能力。</td></tr><tr><td>建议3:构建“轻立法、重指导”的监管框架</td><td>2025 年政策延续该理念,优先通过指南、标准和沙盒机制而非强制立法来适应 AI 技术快速演进。</td></tr><tr><td>建议4:要求制造商提供AI 偏见与泛化能力评估</td><td>在 AI Airlock 与 Change Programme 中明确要求制造商提供偏见缓解、泛化能力验证等技术证据。</td></tr><tr><td>建议5:要求 AI 设备具备可解释性</td><td>在 Change Programme 中设立 “Project Glass Box” 工作包,推动 AI 可解释性指导文件制定,但尚未成为强制性法规要求。</td></tr><tr><td>建议6:支持创新准入机制</td><td>已实施 “AI Airlock” 监管沙盒机制,允许 AI 设备在真实世界中生成证据并加速准入。</td></tr><tr><td>建议7:本地部署前验证</td><td>虽未成为强制法规,但在 AI Airlock 与 PMS 指南中鼓励制造商与医疗机构合作进行本地验证与静默试验。</td></tr><tr><td>建议8:建立主动、系统的上市后监测机制</td><td>2025 年 6 月全面实施《PMS 法规》,要求制造商建立 PMS 计划、趋势报告、快速事件通报等机制。</td></tr><tr><td>建议9:支持模型更新机制 (PCCP)</td><td>在 AI Airlock 与 Change Programme 中推进 “预定变更控制计划 (PCCP)”,允许在预设范围内更新 AI 模型。</td></tr><tr><td>建议10:制定设备退出与应急预案 (Plan B)</td><td>在 PMS 法规中要求制造商制定风险缓解与纠正措施,但未明确强制 “Plan B” 退出机制。</td></tr><tr><td>建议11:统一监管语言与路径 (MAAS)</td><td>MHRA 与 NICE、CQC 等机构持续协作,推动统一指导文件与术语,但“单一入口”机制尚未完全落地。</td></tr><tr><td>建议12:建立公众可查询的 AI 设备注册信息</td><td>MHRA 已建立公众可接入的注册数据库 (PARD),公众可查询设备风险等级、制造商等信息。</td></tr><tr><td>建议13:推动患者与公众参与 (PPI)</td><td>MHRA 在 Change Programme 中设立专项工作包,鼓励在 AI 设备设计、评估与监管中纳入患者与公众意见。</td></tr><tr><td>建议14:推动国际协调与标准统一</td><td>2025 年政策明确提出 “国际依赖路径” ,与美国 FDA、加拿大 Health Canada、澳大利亚 TGA 等监管机构互认审批结果。</td></tr><tr><td>建议15:推动与欧盟/美国的互认协议</td><td>当前仅实施 “单边依赖路径” (Unilateral Recognition),即英国承认 FDA 等审批结果,但反向尚未成立。</td></tr></table> 来源:作者整理 英国于2019年成立了NHS人工智能实验室,由政府投入2.5亿英镑支持。其使命是作为NHS内部AI创新的“引擎”和“枢纽”,负责识别和评估最有潜力的 AI技术,资助其在NHS中的试点和推广,并解决AI在临床整合中遇到的障碍。其支持的“AI健康护理奖”项目,资助了数十个AI项目在NHS基层医疗机构、医院和社区中进行实际应用测试,覆盖从精神健康筛查到癌症早期诊断多个领域。 # (三)英国治理模式优势与挑战 英国在AI医疗治理方面存在以下显著的优势: 1. 战略清晰,执行力强:国家战略的引领和NHS的统一体系,使得英国的AI医疗治理具有高度的一致性和强大的执行力。 2. 数据与应用场景得天独厚:NHS覆盖全民的、标准化的健康数据,以及其作为单一最大采购方的应用场景。 3. 价值导向明确:由NICE确保只有被证明物有所值的AI技术才能被推广,避免了资源的浪费,引导创新向解决实际临床问题的方向发展。 4. 伦理与安全框架完善:从国家战略到NHS内部指南,英国构建了相对完善的伦理和安全治理框架,为AI的负责任应用提供了保障。 但也不乏挑战,例如NHS作为一个庞大的、历史悠久的公立系统,在技术整合方面可能存在官僚主义、流程僵化等问题。同时,NHS长期面临资金和人员短缺的压力,这可能影响其采纳和部署新技术的速度和能力。此外,国家主导的模式在推动规模化应用方面很有效,但有时可能会抑制市场活力和颠覆性创新。如何吸引和留住顶尖的AI创业公司,并帮助他们将创新成果成功商业化,是英国需要思考的问题。 # 四、新加坡:国家愿景,敏捷治理 新加坡是亚洲乃至全球在“智慧国家”建设方面的佼佼者。其AI医疗治理,是在其宏大的“智慧国家2025”战略蓝图下展开的,呈现出政府强力主导、注重实用、强调敏捷和追求国际合作的鲜明特点。新加坡的治理模式,旨在为AI技术的快速发展和应用创造一个“监管沙盒”式的友好环境,同时确保其符合国家利益和公共安全。 # (一)核心理念与治理框架 新加坡的AI医疗治理核心理念是:以“智慧国家”战略为指引,政府发挥 挥主导作用,通过前瞻性的政策规划、积极的政府投资、建设世界级的数据基础设施、以及采用“监管沙盒”等敏捷治理工具,快速、安全地将AI技术应用于医疗等关键民生领域,提升国家竞争力和民众福祉。 新加坡的AI发展是其国家战略的核心组成部分。2017年,新加坡发布了《人工智能战略》,2019年更新为《国家人工智能战略》,明确了在医疗、交通、金融等关键领域发展AI的蓝图。在医疗领域,目标是利用AI来应对人口老龄化、慢性病管理、精准医疗等挑战。这种自上而下的战略规划,确保了AI医疗的发展方向与国家整体利益高度一致。 智慧国及数码政府署(SNDGG)是新加坡“智慧国家”战略的总体协调和推动机构,负责制定跨部门的数字政策,并监督关键国家数字基础设施的建设。 卫生部(MOH)是医疗政策的制定者和主要的服务购买者。卫生科学局(HSA)则是负责监管药品、医疗器械和健康相关产品的机构。两者共同负责AI医疗政策的制定和产品的市场准入监管。HSA在医疗器械审批方面,积极参考国际标准(如FDA、CE认证),并探索适应AI特点的灵活路径。 全国人工智能核心(AISG)由新加坡国立研究基金会资助,AISG是一个由大学、研究机构和行业伙伴组成的国家级AI项目。其使命是培养AI人才、开展前沿AI研究,并帮助新加坡企业采用AI技术,实现产业转型。AISG在医疗AI领域资助了多个项目,如利用AI进行糖尿病视网膜病变筛查、预测心脏衰竭等。 新加坡综合诊疗信息系统作为电子病历(NEHR)系统的运营者,负责全国健康数据的整合、管理和安全共享。其建立的数据访问和治理框架,是AI医疗应用能够合规获取数据的关键。 # (二) 治理思路与关键举措 在数据基础设施方面,新加坡政府投入巨资建设了全国性的健康数据基础设施。其中最核心的是“全国电子健康记录”(NEHR)系统,该系统整合了新加坡所有公立医疗机构(以及越来越多的私立机构)的患者诊疗数据,在严格的隐私保护和授权机制下,为AI研究、公共卫生监测和临床决策支持提供了统一、高质量的数据源。此外,新加坡还积极推动“全国人工智能核心”(AI Singapore, AISG)等机构建设,负责聚合和标注用于AI训练的各行业数据集。 健康科学监管局(Health Sciences Authority,简称 HSA)监管医疗器械软件及 AI 医疗器械的法律依据主要是《健康产品法》(Health Products Act 2007)及《健康产品(医疗设备)监管办法》(2010)。 2024年12月,HSA实施了“GN-37-R1 SaMD变革管理项目(CMP),包含机器学习驱动的SaMD”的指南。这个制度允许制造商规划“预设变更”(prespecified changes),即在产品注册或其生命周期中可以在批准范围内做出某些变更,而无需每次都提交完整变更审批,只要这些变更在批准的范围内。2025年7月发布了新版“SaMD风险分类和CDSS资质指南”,对CDSS软件、SaMD的分类标准做了修正,明确何时CDSS被视为非医疗器械;要求软件医疗器械特别是AI/ML驱动的SaMD在整个生命周期内管理,包括设计开发、验证(verification)、确认(validation)、安全性、性能监控、更新/变更管理等。 为了在鼓励创新和控制风险之间取得平衡,新加坡卫生科学局也积极探索“监管沙盒”的监管方法。其核心思想是:在一个受控的、时间有限的环境中,允许创新的AI产品或服务在真实的医疗场景中进行测试,同时监管机构提供密切的指导和监督,并豁免部分现有法规的限制。这种“边干边学”的敏捷方式,使得监管机构能够更好地理解新技术,及时调整监管策略,也让企业能够在较低的风险下验证其创新。 新加坡的AI医疗治理非常务实,强调技术的实际应用价值和商业可行性。政府通过AISG等机构,不仅资助基础研究,更大力推动“AI产业化”,鼓励企业、大学和研究机构合作,将AI技术转化为能够解决实际问题的产品和服务。例如,在疫情期间,新加坡迅速部署了AI技术用于社区筛查、接触者追踪和医院资源优化,展现了其强大的实用主义导向和快速响应能力。2022年,新加坡信息通信媒体发展局(IMDA)与个人数据保护委员会(PDPC)于2022年5月联合发布AI Verify框架,是全球首个由政府主导、面向全行业的AI治理测试框架与软件工具包。它涵盖11项国际认可原则:透明度、可解释性、可重复性、安全性、鲁棒性、公平性、数据治理、问责、人类代理与监督、包容性增长、社会与环境福祉,与欧盟AI法案、OECD的AI原则保持一致,旨在帮助企业对其AI系统进行上述关键维度的自我验证,并以标准化测试报告向利益相关方证明AI 的“负责任与可信度”,方便企业一次测试,多地使用。 # (三)新加坡治理模式的优势与挑战 新加坡AI治理的优势有: 1. 政府领导力强,执行效率高:强力的政府主导和高效的行政体系,使得新加坡能够快速决策、统一行动,推动国家级战略的落地。 2. 数据基础设施世界领先:全国统一的 NEHR 系统和开放的数据共享文化,为 AI 医疗的发展提供了无与伦比的数据优势。 3. 治理模式灵活敏捷:“监管沙盒”等创新工具,使得新加坡能够在控制风险的同时,为AI创新提供宽松的试验环境,吸引了大量国际科技公司和初创企业在此进行测试和研发。 4. 国际视野开阔:积极拥抱国际合作,使新加坡能够及时吸收全球最佳实践,并提升其在全球AI治理格局中的影响力。 相应地,也存在以下挑战: 1. 数据隐私与国家安全的平衡:在推动数据广泛共享以促进 AI 发展的同时,如何有效保护公民的个人隐私,并防范数据滥用带来的国家安全风险,是一个需要持续审慎对待的难题。 2. 私营部门创新活力:强政府模式虽然高效,但也可能导致市场活力不足,对政府决策形成过度依赖。如何进一步激发私营部门的创新动力,是新加坡需要思考的问题。 3. 人才竞争的激烈性:全球对顶尖 AI 人才的争夺日趋激烈。作为一个小国,新加坡在吸引和留住全球顶尖 AI 人才方面,面临着来自美国、中国等大国的巨大竞争压力。 # 五、AI医疗治理框架成熟度评估指标体系构建 基于对全球主要经济体的AI医疗治理模式的剖析,本文试图构建一个科学、客观且具备实践指导意义的评估框架,以系统衡量治理框架成熟度。近期,国内一些前沿的探索,如深圳发布的地方标准《医学人工智能治理综合评价指标体系》(DB4403/T634—2025),为我们提供了宝贵的思路借鉴。本节将在吸收这些实 践智慧的基础上,构建一个逻辑严谨、层次分明、兼具国际视野与本土特色的评估指标体系。 我们提出的评估框架包含四个一级指标,11个二级指标,具有两大特点: 一是逻辑闭环:“体系-能力-效能-改进”四个维度环环相扣,将治理视为一个动态演进、持续优化的生命过程,而非静态的制度集合。 二是价值导向:特别是在“持续改进”维度,我们引入了卫生经济学的核心评价方法,将“效率”和“健康效益”作为驱动治理升级的关键反馈信号,确保AI技术的发展最终服务于提升医疗体系效率和增进人民健康福祉的根本目标。 图2-2AI医疗治理框架指标体系 表 2-8 列出这一指标体系的详细说明。 下一章将应用此体系,对中外的治理框架成熟度进行科学、系统的诊断,为后续的政策建议提供坚实的数据与逻辑支撑。 表 2-8 AI 医疗治理框架成熟度指标体系 <table><tr><td>一级指标</td><td>二级指标</td><td>三级指标(核心评估要点)</td></tr><tr><td rowspan="3">1.治理体系</td><td>1.1 制度规范</td><td>·法律法规与伦理准则:评估AI医疗数据隐私、算法责任、产品准入等关键领域法律法规的完备性。·安全与风险界定:考察制度层面对医疗安全、隐私安全、伦理风险的界定与覆盖情况。</td></tr><tr><td>1.2 组织管理</td><td>·组织架构与协同:评估跨部门协调机制与多元共治模式的有效性。</td></tr><tr><td>1.3 技术标准</td><td>·数据与算法标准:评估对数据质量、模型测试、算法透明度与可解释性的技术要求。·风险防控标准:考察对算法风险(如偏见、歧视)、训练数据风险的标准化识别与缓解要求。</td></tr><tr><td rowspan="3">2.治理能力</td><td>2.1 技术支撑</td><td>·基础设施与工具:评估算力基础设施、公共数据平台及可信AI技术的应用水平。·风险处置能力:考察对生成内容风险(尤其针对生成式AI)的识别、预警与应急处置能力。</td></tr><tr><td>2.2 人才保障</td><td>·复合型人才储备:评估兼具AI、医疗、法律知识的跨领域人才培养与规模。·公众认知与沟通:考察公众对AI医疗的信任度,以及治理方对受众体验和社会安全风险的沟通与引导能力。</td></tr><tr><td>2.3 执行能力</td><td>·监管执行效率:评估产品审批流程的清晰度、效率与上市后监管的有效性。</td></tr><tr><td rowspan="3">3.治理效能</td><td>3.1 应用推广</td><td>·临床渗透与融合:评估AI在核心临床场景(如影像、病理)的场景渗透广度与深度。·真实世界性能:衡量模型在真实临床环境中的适用效能(如准确率、召回率)与稳定性。·用户满意度:通过受众体验调查,评估医护人员与患者的接受度与满意度。</td></tr><tr><td>3.2 产业促进</td><td>·经济价值创造:评估AI医疗产业带来的经济效益,如市场规模、产业链带动效应。</td></tr><tr><td>3.3 安全保障</td><td>·社会风险控制:监测社会安全风险与伦理风险的实际发生情况,评估控制措施的有效性。</td></tr><tr><td rowspan="2">4.持续改进</td><td>4.1 效率评估</td><td>·成本效益分析:引入成本效率、规模效率、配置效率等效率评价指标,评估AI技术应用的经济学合理性,并以此指导资源优化配置。</td></tr><tr><td>4.2 价值评估</td><td>·健康结局衡量:引入健康效益、社会效益等效益评价指标,衡量AI技术对国民健康水平和公共卫生的最终贡献,并以此驱动技术迭代与政策调整。</td></tr></table> # 第三章 中国AI医疗治理现状 在全球AI医疗治理浪潮中,中国凭借庞大的市场规模、丰富的医疗数据资源、政府的政策推动以及快速发展的AI技术产业,成为全球舞台上具有重要影响力的参与者。中国的AI医疗治理呈现出与欧美国家不同的特点:在国家顶层战略引导下,以“促进发展”和“保障安全”为双重目标,通过“政策先行、试点探索、逐步规范”的路径,逐步构建了具有中国特色的治理体系。本章将系统剖析中国AI医疗治理的战略背景、政策法规体系、治理实践、取得的成就及面临的深层次挑战。 # 一、顶层战略驱动:AI医疗上升为国家意志 与美国市场自发演进、欧盟权利驱动等模式不同,中国的AI医疗发展呈现明显的顶层战略驱动特点。政府不仅是监管者,更是积极的推动者、规划者和投资者。通过政策先行和多部门协同,为AI医疗的快速发展提供方向和动力。 # (一)国家级战略的宏观引领 近年来,中国政府密集出台了一系列国家级战略规划,将人工智能,特别是AI在医疗健康领域的应用,提升到了前所未有的战略高度。 2016年,国家出台《“健康中国2030”规划纲要》,为AI医疗的应用提供了广阔的场景和明确的需求导向。纲要提出要“推动健康科技创新”、“建设健康信息化服务体系”、“推进健康医疗大数据应用”、“发展健康服务新业态”等,这为AI技术在优化医疗资源配置、提升服务效率、改善健康管理等方面的应用提供了政策依据。 2017年出台的《新一代人工智能发展规划》是中国AI领域第一个国家级战略规划,具有里程碑意义。规划明确将“智能医疗”列为AI重点应用的八大关键领域之一,提出要“推广应用人工智能治疗新模式新手段,建立快速精准的智能医疗体系”。具体任务包括:“探索智慧医院建设,开发人机协同的手术机器人、智能诊疗助手,研发柔性可穿戴、生物兼容的生理监测系统,研发人机协同临床智能诊疗方案,实现智能影像识别、病理分型和智能多学科会诊。基于人工智能 开展大规模基因组识别、蛋白组学、代谢组学等研究和新药研发,推进医药监管智能化。加强流行病智能监测和防控”。该规划为中国AI医疗的发展描绘了宏伟蓝图,并确立了“三步走”的战略目标,即到2025年,AI产业进入全球价值链高端;到2030年,使中国成为世界主要AI创新中心,为跻身创新型国家前列和经济强国奠定重要基础。 《“十四五”规划和2035年远景目标纲要》(2021)延续《“健康中国2030”规划纲要》精神,更加注重信息化的深度应用和数字化赋能。在医疗健康领域,规划明确提出“推进全民健康信息化建设,构建统一权威、互联互通的全民健康信息平台,推动‘互联网+医疗健康’发展,实现二级以上医院院内信息互通共享,三级医院核心信息全国互通共享。” 《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》(2025)提出:“全面实施‘人工智能+’行动,以人工智能引领科研范式变革……全方位赋能千行百业”,将人工智能作为推进健康中国战略、提升卫生健康服务能力和效率的重要支撑力量,通过国家级战略部署和多部门协同推进,构建安全可控、标准完善、数据共享的数智化健康服务体系,实现AI与医疗健康的深度融合,以满足人民群众日益增长的健康服务需求,同时强化AI应用中的治理、伦理、安全与依法监管。 # (二)主管部门及其分工 在国家级战略的指引下,各部委也相继出台了更加具体、更具操作性的专项政策,形成了多层次、多角度的政策支持体系。相关的部门及其职责分工是: 国家卫健委是医疗监管的核心部门,依法负责医疗机构和医疗服务的全行业监管,负责AI医疗在临床应用中的规范管理,是推动AI医疗应用和治理的核心力量。卫健委发布的《关于印发国家健康医疗大数据标准、安全和服务管理办法(试行)的通知》(2018.9)、《关于深入推进“互联网+医疗健康”“五个一”服务行动的通知》(2020.12)等文件,一方面规范了健康医疗数据的采集、存储、使用和安全共享,为AI应用奠定了数据基础;另一方面,大力推动“互联网+医疗健康”的发展,为AI辅助诊断、智能健康管理、远程医疗等应用场景的落地扫清了政策障碍。近年来,国家卫健委还积极组织AI医疗相关产品的试点应用 和临床验证,探索其在真实世界环境中的效果和风险。 国家药监局(NMPA)是AI医疗器械的核心监管机构,负责AI医疗产品的注册审批和质量监管。作为药品和医疗器械的法定监管机构,NMPA在AI医疗产品的准入和上市后监管方面扮演着至关重要的角色。 国家医保局主要负责医保基金和医疗服务价格的管理,制订支付目录和价格谈判,将AI辅助诊断技术纳入医疗服务价格构成,监督AI医疗服务的费用合理性,确保医保基金的安全和高效使用。 国家中医药管理局负责AI在中医药领域政策制定、应用引导、安全监督和创新推动的角色。旨在确保人工智能技术能够安全、有效、高质量地与中医药事业深度融合,最终服务于中医药的传承创新。 工业和信息化部是AI技术和产业的主管部门,侧重于从技术攻关、产业培育和标准制定的角度推动AI医疗硬件和软件的研发,支持AI医疗产业发展。其通过“新一代人工智能产业创新重点任务揭榜挂帅”等项目,支持企业和科研单位在智能医学影像辅助诊断系统、智能手术机器人、智能健康管理等关键核心技术上取得突破。同时,工信部也积极推动AI医疗相关标准的制定工作,力求在技术层面形成统一规范,促进产业的健康发展。 国家网信办依据《个人信息保护法》和《数据出境安全评估办法》,监测数据流动,负责保护隐私和国家安全等。 # 二、治理政策法规体系 在顶层战略的驱动下,中国AI医疗治理的政策法规体系正在快速形成,其核心特征是“发展与规范并重”,即在大力鼓励技术创新和应用推广的同时,逐步建立起涵盖数据、算法、产品、应用、安全等全链条的规范框架。 # (一)总体情况 近年来,国家各部委出台了大量AI医疗政策。结合AI医疗的特点,本文将其分为四个类别: 1. 战略规划与资源基础:指明方向,提供数据与技术引擎。包含: - 宏观战略:如《“人工智能+”行动》、《“十四五”全民健康信息化规划》、 《医药工业数智化转型方案》。 - 数据资源:如《数据分类分级标准》、《数据安全法》、《个人信息保护法》。 - 技术能力:如《全民健康信息化规划》。 2. 场景应用与价值实现:将AI能力转化为实际生产力与服务,是当前政策最为关注的领域。包含: - 场景指引:如《AI应用场景参考指引》。 - 疾病防治:如《癌症/糖尿病/呼吸病防治方案》、《AI赋能老年健康服务》。 - 体系建设:如《智慧化传染病监测预警体系》、《紧密型县域医共体》。 - 支付与价格(价值闭环):如《放射检查类医疗服务价格项目立项指南》。 3. 产品准入与产业促进:AI医疗作为“医疗器械”的特殊且关键的一环,连接技术、应用与监管。包含: - 产品分类界定:如《AI医用软件产品分类界定指导原则》、《规范医疗器械分类界定》。 - 注册审查指导:如《AI医疗器械注册审查指导原则》、《AI辅助检测软件临床评价指导原则》。 - 产业发展:如《医药工业数智化转型方案》。 4. 监管治理与伦理规范:划定红线,保障安全,建立信任。包含: - 行业监管:如《互联网诊疗监管细则》、《加强医疗监督跨部门执法联动》。 - 伦理规范:如《新一代人工智能伦理规范》,以及各项指导原则中关于公平性、可解释性、知情同意的要求。 - 责任与执法:如《医疗监督跨部门执法联动》。 表 3-1 国家层面出台的 AI 医疗相关文件内容概要 (2021-2025.9) <table><tr><td>序号</td><td>文件名称</td><td>发布部门</td><td>发布时间</td><td>分类</td><td>主要内容</td></tr><tr><td>1</td><td>《国务院关于深入实施“人工智能+”行动的意见》</td><td>国务院</td><td>2025-08-21</td><td>1</td><td>首次在国家层面部署“人工智能+医疗健康”专项行动,明确到2027年建成覆盖全流程的AI医疗健康应用体系,并建立数据共享、风险监测与伦理治理机制。</td></tr><tr><td>2</td><td>《卫生健康行业数据分类分级标准》等三项标准</td><td>国家卫生健康委</td><td>2025-08-28</td><td>1</td><td>立项制定AI医疗数据分类分级、应用管理、场景分类等三项强制性标准,为行业数据治理提供统一技术规范。</td></tr><tr><td>3</td><td>《医药工业数智化转型实施方案(2025—2030年)》</td><td>工信部、国家药监局等七部门</td><td>2025-04-24</td><td>1</td><td>部署“人工智能赋能医药全产业链”试点,重点支持AI辅助创新药研发、智能生产线和临床急需数字医疗产品产业化。</td></tr><tr><td>4</td><td>《“十四五”全民健康信息化规划》</td><td>国家卫健委等多部委</td><td>2022-11</td><td>1</td><td>提出到2025年建成统一互通的全民健康信息平台并开展AI医疗试点。</td></tr><tr><td>5</td><td>《个人信息保护法》</td><td>全国人大常委会</td><td>2021-11</td><td>1</td><td>明确医疗个人信息处理需取得“单独同意”,约束AI算法对个人信息的挖掘。</td></tr><tr><td>6</td><td>《数据安全法》</td><td>全国人大常委会</td><td>2021-09</td><td>1</td><td>确立医疗等敏感数据分级分类保护制度,为AI医疗数据使用设定红线。</td></tr><tr><td>7</td><td>对十四届全国人大三次会议第3178号建议的答复(AI赋能老年健康服务)</td><td>国家卫健委(会同民政部、国家医保局)</td><td>2025-08-21</td><td>2</td><td>明确将AI慢性病管理、诊后康复等成熟服务纳入老年健康服务体系,并同步纳入医保支付扩展项,同时强化数据隐私与伦理审查。</td></tr><tr><td>8</td><td>《卫生健康行业人工智能应用场景参考指引》</td><td>国家卫健委办公厅</td><td>2024.11</td><td>2</td><td>首次系统提出84个AI医疗场景目录,作为全行业场景规划与数据共享的顶层指引。</td></tr><tr><td>9</td><td>《放射检查类医疗服务价格项目立项指南(试行)》</td><td>国家医保局</td><td>2024-11</td><td>2</td><td>明确在放射检查主项目下增设“AI辅助诊断”扩展项,并同步启动医保支付试点。</td></tr><tr><td>10</td><td>《关于建立健全全智慧化多点触发传染病监测预警体系的指导意见》</td><td>国家疾控局等</td><td>2024.08</td><td>2</td><td>要求2030年前建成基于AI与大数据的多点触发传染病监测预警平台并明确数据共享与应急响应流程。</td></tr><tr><td>11</td><td>《健康中国行动——慢性呼吸系统疾病防治行动实施方案(2024—2030年)》</td><td>国家卫健委等</td><td>2024.07</td><td>2</td><td>推动AI、大数据在基层建立慢性呼吸病规范化诊疗辅助系统。</td></tr><tr><td>12</td><td>《健康中国行动——糖尿病防治行动实施方案(2024—2030年)》</td><td>国家卫健委等</td><td>2024.07</td><td>2</td><td>利用AI、可穿戴设备与互联网开展糖网病变筛查和持续葡萄糖监测,提升健康管理效率并保障患者知情同意。</td></tr><tr><td>13</td><td>《2024-2025年持续开展“公立医疗机 构经济管理年”活动》</td><td>国家卫生健康委、 国家中医药局</td><td>2024.06</td><td>2</td><td>要求公立医院建设 AI 驱动的业财融合运营平台,实现内部系统互通与数据共享。</td></tr><tr><td>14</td><td>《全面推进紧密型县域医疗卫生共同体 建设》</td><td>国家卫生健康委 等</td><td>2023.12</td><td>2</td><td>在县域医共体统一信息系统,推广 AI 辅助诊断与远程医疗,并强化网络安全与数据互通。</td></tr><tr><td>15</td><td>《健康中国行动——癌症防治行动实施 方案(2023-2030年)》</td><td>国家卫生健康委 等</td><td>2023.01</td><td>2</td><td>通过 AI、互联网开展远程多学科诊疗和癌症规范化诊治辅助系统建设,提高基层诊疗能力。</td></tr><tr><td>16</td><td>《中药标准管理专门规定》</td><td>国家药监局</td><td>2024.07</td><td>3</td><td>明确鼓励在中药标准制定中采用大数据、AI 等新技术以提高质量可控性。</td></tr><tr><td>17</td><td>《规范医疗器械产品分类界定工作》</td><td>国家药监局器械注册司</td><td>2024.05</td><td>3</td><td>规定含 AI 算法的医疗器械必须披露算法类型及是否给出诊断结论,以统一分类边界。</td></tr><tr><td>18</td><td>《人工智能辅助检测医疗器械(软件) 临床评价注册指导原则》</td><td>国家药监局器审中心</td><td>2023-11</td><td>3</td><td>细化 AI 医疗器械临床试验设计、评价指标、MRMC 统计方法等技术监管要求。</td></tr><tr><td>19</td><td>《人工智能医疗器械注册审查指导原 则》</td><td>国家药监局器审中心</td><td>2022-03</td><td>3</td><td>明确 AI 医疗器械(含软件组件)注册的全生命周期质控要点:算法风险管理、数据质控、验证确认、更新控制及上市后持续监测要求。</td></tr><tr><td>20</td><td>《人工智能医用软件产品分类界定指导 原则》</td><td>国家药监局</td><td>2021-07</td><td>3</td><td>明确 AI 医用软件按III类医疗器械管理,给出分类边界与审查要点。</td></tr><tr><td>21</td><td>《加强医疗监督跨部门执法联动工作》</td><td>国家卫生健康委 等</td><td>2024.02</td><td>4</td><td>建立省级医疗监督平台,用 AI、大数据打破信息孤岛,实现跨部门数据共享与联合执法。</td></tr><tr><td>22</td><td>《关于印发互联网诊疗监管细则(试行) 的通知》</td><td>国家卫健委办公厅、国家中医药局 办公室</td><td>2022-02</td><td>4</td><td>首次系统提出互联网诊疗的准入、质控、数据安全、AI 辅助诊断责任划分及患者知情同意等全流程监管要求。</td></tr><tr><td>23</td><td>《新一代人工智能伦理规范》</td><td>国家新一代 AI 治理专委会</td><td>2021-09</td><td>4</td><td>将“公平、安全、可解释”等伦理要求嵌入 AI 全生命周期</td></tr></table> 资料来源:自行整理,截止2025.9.1 # (二)数据治理:从“数据孤岛”到“有序流动” 数据是AI的“燃料”,数据治理是AI医疗治理的基石。中国在医疗数据治理方面,经历了从强调信息安全到鼓励数据共享与价值释放的转变。 # 1. 法律法规的硬约束: 对数据的管制主要依据以下三部法律: 《网络安全法》(2017年)确立了网络运营者的安全保护义务,对包括医疗数据在内的个人信息和重要数据的安全提出了原则性要求。 《数据安全法》(2021年)是中国数据领域的基础性法律,明确了数据处理活动的安全义务,建立了数据分类分级保护制度,并对重要数据的出境安全管理作出规定。医疗健康数据作为关系国计民生的重要数据,其处理活动受到《数据安全法》的严格规制。 《个人信息保护法》(2021年)与欧盟的GDPR类似,为个人信息的处理提供了全面、严格的保护。医疗健康信息属于其所定义的“敏感个人信息”,其处理需要取得个人的“单独同意”,并告知处理目的、方式等必要信息。这为AI模型在训练和使用过程中处理患者数据划定了清晰的法律红线。 # 2. 部门规章与标准的引导: 国家卫健委牵头制定的《国家健康医疗大数据标准、安全和服务管理办法(试行)》(2018)明确了健康医疗大数据的定义、标准体系、安全管理和服务规范,是指导中国健康医疗大数据发展和应用的重要文件。它鼓励数据在安全可控的前提下进行开放共享,以支持科学研究和服务创新。 《信息技术生物特征识别人脸识别系统技术要求》(2022)等国家标准,虽然不限于医疗领域,但这些标准为AI医疗中可能用到的生物特征识别技术提供了技术规范。 近年来,医疗数据已成为各地数据交易所的重要交易标的。这些交易所通过建立数据确权、定价、交易和安全管理等制度安排,旨在保护隐私与促进数据价值释放之间实现平衡,为AI医疗企业获取合规数据提供了新的渠道。 # (三)技术和产品监管:从“无据可依”到“有章可循” 对于AI医疗产品本身,特别是那些作为医疗器械使用的软件,NMPA的监管是整个治理体系的核心环节。中国在AI医疗器械监管方面,走出了一条从跟随 到创新的路径。 首先,NMPA 明确,如果 AI 软件的预期用途符合医疗器械的定义,即对疾病的诊断、预防、监护、治疗或缓解;对损伤的诊断、监护、治疗、缓解或功能补偿;对生理结构或生理过程的检验、替代、调节或支持;对生命的支持或维持;妊娠控制;通过对来自人体的样本进行检查,为医疗或诊断目的提供信息,就应当按照医疗器械进行管理。 其次,为了鼓励AI等前沿技术的创新,NMPA设立了“创新医疗器械特别审批程序”,为创新医疗器械提供“绿色通道”。对于具有核心技术发明专利、国内首创、国际领先、且具有显著临床应用价值的AI医疗产品,企业可以申请进入该“绿色通道”。一旦获批,产品在注册申报过程中将获得早期介入、优先审查和技术指导等便利,大大缩短了上市时间。 此外,NMPA积极组织技术力量,对AI医疗软件进行分类界定,并陆续发布了多个具体的审评指导原则。例如,《人工智能医用软件产品注册审查指导原则》、《深度学习辅助决策医疗器械审评要点》等。这些文件为AI医疗器械的注册申报提供了详细的技术要求,包括算法性能、数据集、软件更新、可解释性等。 最后,NMPA认识到AI产品的批准上市只是监管的开始。近年来,NMPA加强了对已上市AI医疗器械的“飞行检查”和不良事件监测,要求企业建立质量管理体系和上市后跟踪研究计划,持续监控产品在真实世界中的性能和安全性。 # (四)应用伦理与安全治理:从“技术导向”到“价值导向” 随着AI医疗应用的深入,其带来的伦理和社会问题也日益受到关注。中国政府和社会各界开始从单纯关注技术性能,转向更加重视AI的伦理、公平和安全等价值维度。 国家层面的伦理治理框架包括《新一代人工智能治理原则》(2019年),由国家新一代人工智能治理专业委员会发布,提出了“发展负责任的人工智能”的总目标,并确立了“和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理”等八项原则。这些原则为包括AI医疗在内的所有AI应用提供了宏观的伦理指引。 《新一代人工智能伦理规范》(2021年)在治理原则的基础上,进一步细化了AI伦理的具体要求,强调要将伦理融入AI全生命周期,增进人类福祉,促进 公平公正,保护隐私安全,确保可控可信,强化责任担当,提升伦理素养。这标志着中国AI伦理治理从原则宣示走向了实践规范。 行业与学术界积极响应,由中华医学会等权威医学组织牵头,联合临床专家、AI专家、伦理学家等,共同发布《人工智能医疗专家共识》。这些共识对AI技术的临床适用范围、使用流程、注意事项、潜在风险以及医患沟通等提出指导性建议,是连接技术标准与临床实践的重要桥梁。 医院伦理审查委员会的作用也越来越突出。在大型三甲医院,伦理审查委员会是AI医疗项目(特别是涉及人体数据或受试者的临床研究)进入临床前的“守门人”。委员会从伦理角度对项目的科学价值、风险受益比、知情同意过程、数据隐私保护措施等进行严格审查,确保其符合伦理规范。 # 三、治理实践的主要成就 在上述战略、政策和法规体系的共同作用下,中国AI医疗治理的实践取得了以下四项显著成就: # 成就一:构建了全球领先的AI医疗应用生态 在政府的强力推动和庞大市场需求的牵引下,中国AI医疗产业蓬勃发展,应用场景不断丰富。在医学影像辅助诊断领域,以推想科技、联影智能、依图医疗等为代表的一批企业,其AI产品已在全国数千家医院落地,覆盖了肺结节、糖网、乳腺癌、脑卒中等多个高发疾病的筛查和诊断,其临床应用规模和广度位居世界前列。在智能健康管理、药物研发、基因测序、手术机器人等领域,也涌现出一批具有竞争力的创新企业。这种从研发到应用的完整生态,是中国AI医疗治理最直观的成果。 # 成就二:形成了相对高效的监管审批路径 NMPA通过设立创新“绿色通道”、发布系列审评指导原则,成功地在确保产品安全有效的前提下,加速了有益AI产品的上市进程。截至2024年底,NMPA累计批准105款AI独立软件三类医疗器械,数量居全球第二①。这表明中国在AI医疗产品的科学监管方面,已经在开展大胆的探索,既没有因监管缺位导致市场混乱,也没有因监管过严扼杀创新活力。 # 成就三:医疗数据基础设施建设和共享取得突破 在国家卫健委的推动下,以国家健康医疗大数据中心为代表的国家级数据基础设施正在形成。各地也在积极探索建立区域性的健康医疗数据平台,促进区域内医疗机构的数据互联互通。虽然“数据孤岛”问题依然存在,但数据共享的理念和机制正在逐步建立,为AI模型的训练和优化提供了越来越丰富的“燃料”。 # 成就四:社会对AI医疗的认知和接受度显著提升 通过政府宣传、媒体报道以及临床实践的普及,中国社会公众和医护人员对AI医疗的认知度、接受度和信任度都有了显著提升。2024年底的一份调查发现, $82.6\%$ 的医生和 $80.22\%$ 的护士对AI前景持乐观态度。①越来越多的患者愿意接受AI辅助的筛查服务,越来越多的医生将AI工具视为日常工作的得力助手。这种社会共识的形成,是AI医疗能够持续健康发展的社会基础。 # 四、国内外AI医疗治理框架成熟度对比 运用上一章AI医疗治理框架成熟度评估指标体系,结合本报告的介绍内容,我们可以定性对比中国和前述四个经济体的治理框架成熟度,详见表3-2。 总体来看,中国的AI医疗治理,已经走出了一条战略引领、政策驱动、发展与规范并重的道路,取得了举世瞩目的成就,为全球AI医疗治理贡献了“中国智慧”和“中国方案”。一个以国家战略为顶层、以法律法规为框架、以部门规章为支撑、以标准规范为指引的治理体系已初具雏形。 表 3-2 五大经济体 AI 医疗治理框架成熟度评估 <table><tr><td>经济体</td><td>1.治理体系(制度、组织、标准)</td><td>2.治理能力(技术、人才、执行)</td><td>3.治理效能(应用、产业、安全)</td><td>4.持续改进(效率、价值反馈)</td><td>综合评述</td></tr><tr><td>欧盟</td><td>A·制度规范:极其完备(如《AI法案》),全球规则制定者。·组织管理:跨国协调复杂,但框架统一。·技术标准:CE-MDR等医疗器械法规体系成熟,对AI要求严。</td><td>B+·技术支撑:基础科研强,但商业算力平台不如中美。·人才保障:人才储备丰富,但面临人才外流压力。·执行能力:各国监管机构执行力度不一,整体偏谨慎。</td><td>B·应用推广:临床应用相对保守,注重安全验证。·产业促进:强劲的初创生态,但市场碎片化。·安全保障:对安全和伦理风险的法律要求全球最高。</td><td>A-·效率评估:较少关注商业效率,更关注社会公平与安全。·价值评估:强调社会效益与健康效益,建立了强大的伦理反馈机制。</td><td>规则引领者,安全优先。治理框架最完善、最严谨,为全球设定了“高标准”,但可能以牺牲部分创新速度和市场效率为代价。</td></tr><tr><td>美国</td><td>B+·制度规范:依赖现有法规(如FDA的软件预认证计划),灵活但缺乏统一AI大法。·组织管理:以FDA为核心,多机构协同,市场驱动特征明显。·技术标准:FDA发布指南性强,但非强制性的标准。</td><td>A·技术支撑:全球顶尖的算力、数据和AI技术公司。·人才保障:吸引全球顶尖人才的中心。·执行能力:FDA审批经验丰富,效率高,但面临新技术挑战。</td><td>A·应用推广:临床应用最广泛、最深入,场景渗透率高。·产业促进:全球最活跃的产业生态和资本市场。·安全保障:依赖事后追责和企业自律,对系统性风险关注不足。</td><td>B+·效率评估:极度重视成本效率和经济效益。·价值评估:以经济效益和健康效益为主要驱动力,社会效益反馈机制较弱。</td><td>创新驱动者,市场优先。凭借强大的技术和产业生态,在应用和产业上遥遥领先,但治理体系呈现“补丁式”特点,对系统性风险的防范机制仍在探索中。</td></tr><tr><td>英国</td><td>A-·制度规范:体系清晰(如UKCA),积极寻求灵活与创新。·组织管理:设有专门的AI机构(如CDEI),跨部门协同高效。·技术标准:积极参与国际标准制定,发布实用指南。</td><td>B+·技术支撑:科研实力雄厚,但商业规模不如美国。·人才保障:人才质量高,尤其在AI伦理领域。·执行能力:监管路径清晰,力求在安全与速度间取得平衡。</td><td>B+·应用推广:NHS体系为AI应用提供了广阔试验场,但整合速度慢。·产业促进:政府积极扶持,初创生态活跃。·安全保障:对伦理风险的关注度高,走在前列。</td><td>A-·效率评估:在NHS框架下关注配置效率和成本效益。·价值评估:强调健康效益和社会价值,建立了良好的沙盒反馈机制。</td><td>价值导向者,务实探索。在欧盟的严谨和美国的灵活之间走出了一条“第三条道路”,以价值为导向,治理体系清晰且务实,但受限于国家规模和产业体量。</td></tr><tr><td>新加坡</td><td>A-·制度规范:国家战略驱动,政策出台迅速,体系精炼高效。·组织管理:政府主导,跨部门协同极为顺畅。·技术标准:积极引入国际标准,并制定本地化指南。</td><td>A-·技术支撑:国家级基础设施投入大,数据共享机制领先。·人才保障:积极全球引才,人才培养体系完善。·执行能力:监管敏捷,审批流程高效,沙盒机制成熟。</td><td>B+·应用推广:在公立医疗体系内推广迅速,场景渗透快。·产业促进:打造区域AI中心,吸引跨国公司落户。·安全保障:法律框架完善,执行严格,社会信任度高。</td><td>A·效率评估:极度重视治理效率和技术应用效率。·价值评估:将健康效益和经济效益纳入国家愿景,反馈机制非常敏捷。</td><td>敏捷治理者,国家愿景驱动。以小国优势实现了高效的“全国一盘棋”治理,体系精炼、执行有力,是敏捷治理的典范,但市场规模限制了其产业辐射力。</td></tr><tr><td>中国</td><td>B+·制度规范:顶层战略明确,政策出台快,但法律法规仍在完善中。·组织管理:国家主导,多部门协同,但权责界定有待清晰。·技术标准:积极制定国家标准,但落地和互操作性是挑战。</td><td>B+·技术支撑:数据和算力规模巨大,应用场景丰富。·人才保障:人才基数大,但顶尖复合型人才稀缺。·执行能力:监管“沙盒”正在探索,审批流程在加速优化中。</td><td>B+·应用推广:应用场景广泛,部分领域(如影像)渗透率高,但发展不均衡。·产业促进:产业规模爆发式增长,资本活跃。·安全保障:对数据安全高度重视,但对算法伦理等风险的应对机制尚在建设。</td><td>B·效率评估:开始重视卫生经济学评价,但尚未形成系统性的反馈机制。·价值评估:强调社会效益和健康效益,但价值驱动的治理闭环仍在形成中。</td><td>快速发展者,规模驱动。凭借巨大的市场、数据和政策支持,在应用和产业上快速追赶,治理体系建设速度惊人,但在制度精细化、能力均衡性和反馈机制成熟度上仍有提升空间。</td></tr></table> # 第四章 AI医疗全生命周期风险图谱 人工智能在为医疗领域带来革命性机遇的同时,也伴随着复杂且交织的风险。这些风险贯穿于AI医疗产品的设计、研发、部署和应用的全生命周期,对技术、法律、伦理和社会等多个层面构成深远挑战。本章旨在构建一个系统化的AI医疗全生命周期风险图谱,从技术、法律、伦理、数据四个核心维度,对潜在风险进行深度拆解与具象化分析。 # 一、AI医疗全生命周期风险框架 任何一项AI医疗技术都不是孤立存在的静态产品,而是一个从概念到退役的动态演进过程。风险并非仅在技术部署时才出现,而是潜藏于生命周期的每一个环节,并相互关联、动态演化。①因此,构建风险图谱的首要任务,是沿着其生命轨迹,识别并定位每个阶段的关键风险点。 # 一个完整的AI医疗全生命周期可划分为以下四个核心阶段: # 1. 设计与训练阶段 AI模型的孕育期,其质量直接决定了产品的上限与下限。本阶段的核心任务是基于特定临床需求(如肺部CT结节筛查、糖尿病视网膜病变分期),进行数据收集、标注、算法选型与模型训练。技术上,关键在于算法架构的合理性与训练过程的有效性,避免因模型设计缺陷或训练不当导致“黑箱”特性加剧或泛化能力不足。数据上,这是所有数据风险的根源。训练数据的代表性不足会引入偏见,低质量的标注会让模型“学错”,而不合规的数据收集则会埋下法律隐患。此时,伦理风险尤为突出,若数据隐含了对特定人群(如少数族裔、女性、穷困人群)的历史诊断偏差,算法将不仅复制甚至会放大这种不公,导致“垃圾进,垃圾出”的系统性歧视。因此,此阶段是质量控制的源头,其输出的不仅是模型,更是一套内在的、固化的价值观与潜在倾向。 # 2. 部署与集成阶段 当训练完成的模型离开实验室,进入真实的医院环境,便进入了部署与集成 阶段。这是理论与现实的首次激烈碰撞。技术上的首要挑战是系统兼容性与环境适应性。AI引擎需要与医院现有的信息化系统(如HIS、PACS、EMR)无缝对接,实现数据流的畅通,任何接口协议或数据格式的不匹配都可能导致部署失败。同时,真实的临床数据流与实验室数据存在差异,可能导致模型性能出现衰减。在法律层面,此阶段的核心风险是资质与责任。产品必须获得监管机构的注册认证(如中国NMPA、美国FDA)方可正式临床应用。此外,与医院签订的合同需要明确界定双方权责,特别是当出现系统故障或性能不达标时的责任归属与服务补救措施。伦理上,此阶段引发了公平可及性的担忧,AI系统若仅部署于资源丰富的大型医院,可能会加剧医疗资源的“马太效应”,拉大医疗鸿沟。 # 3. 临床运营与监控阶段 这是AI产品真正发挥临床价值、同时也是风险直接暴露于患者的漫长阶段。本阶段的重点从“建好”转向“用好”和“管好”。技术上,模型会面临性能衰减的必然挑战,因为疾病谱、诊疗技术和医疗设备都在不断变化,使得训练数据的静态分布与动态变化的现实世界产生“漂移”。必须建立持续的监控体系,实时追踪模型的准确率、召回率等关键指标,及时预警性能下降。法律上的核心风险是医疗责任的界定。当AI的辅助诊断建议与医生判断相左,或直接导致误诊漏诊时,责任主体是遵循AI建议的医生、提供服务的医院,还是开发算法的厂商?这构成了当前法律界定的灰色地带。伦理上,人机关系成为焦点。医生可能对AI产生过度依赖,导致自身诊断能力退化,或盲目遵从算法而忽视了患者的个体情况,从而侵蚀医生的专业自主性和医患之间的信任纽带。① # 4. 退场与迭代阶段 任何技术产品都有其生命周期终点,AI医疗模型亦不例外。退场与迭代阶段标志着旧模式的终结与新循环的开启。退场可能源于模型性能已无法满足临床需求,或被更优秀的迭代版本所取代。技术上面临平稳过渡的挑战,包括旧系统的数据迁移与归档、新老系统的无缝切换,以及确保服务不中断。法律上,厂商需要明确其退场义务,如何提前通知用户、如何合规地处置系统内留存的敏感患者数据,以及退场后对历史诊断结果是否仍负有追溯性责任。迭代则是一个新的、精简版的生命周期重启。它基于临床运营中产生的新数据与反馈对模型进行优化。 此处的风险在于,迭代可能是“微小”的,但累积效应却是“巨大”的,这可能规避监管对“重大变更”的再次审批,引入未知风险。伦理上,需考量迭代的公平性与可持续性,确保技术升级不以牺牲弱势群体的医疗可及性为代价。 表 4-1 AI 医疗全生命周期风险点分析表 <table><tr><td>维度</td><td>1. 设计与训练阶段</td><td>2. 部署与集成阶段</td><td>3. 临床运营与监控阶段</td><td>4. 退场与迭代阶段</td></tr><tr><td>技术/数据风险</td><td>·模型设计缺陷,导致“黑箱”·泛化能力不足·标注质量低</td><td>·系统兼容性差·环境适应性弱</td><td>·模型性能漂移·实时监控与反馈机制缺失</td><td>·过渡不平稳·微小迭代累积效应巨大</td></tr><tr><td>法律风险</td><td>·数据收集不合规</td><td>·未获监管机构注册认证·与医院的合同未明确权责</td><td>·责任主体模糊·数据安全与隐私泄露</td><td>·退场义务不明·规避“重大变更”的监管审批</td></tr><tr><td>伦理风险</td><td>·算法偏见与歧视</td><td>·对现有医疗流程造成冲击</td><td>·侵蚀专业自主·损害医患信任</td><td>·迭代公平性缺失·缺乏持续性考量</td></tr></table> 通过上述全生命周期风险框架,可以看到,AI医疗的风险是贯穿始终、环环相扣的。一个在数据阶段引入的偏见,可能会在模型训练阶段被放大,在临床部署阶段造成不公,最终在法律层面引发诉讼。因此,我们将以技术、法律、伦理和数据这四大维度为主线,逐一审视它们在生命周期的每个阶段所扮演的角色和引发的具体风险,从而构建一幅全面、立体、动态的AI医疗风险图谱。 # 二、技术维度 AI医疗系统的技术风险根植于其算法模