> **来源:[研报客](https://pc.yanbaoke.cn)** # 扩大健康领域的人工智能应用总结 ## 核心内容 本报告由经合组织(OECD)发布,旨在推动人工智能(AI)在医疗保健领域的负责任和可扩展应用。报告回顾了OECD成员国在AI医疗实施方面的进展,并提出了一个政策清单,以指导各国在健康领域实现AI的规模化应用。报告强调,AI在医疗领域具有巨大潜力,但其应用仍面临数据治理、监管、伦理和公平性等方面的挑战。 ## 主要观点 - **AI的潜力**:AI在医疗领域可以提升诊断准确性、改善患者体验、优化工作流程、促进个性化医疗,并提高健康系统的效率和公平性。 - **AI的风险**:包括数据偏差、隐私和安全问题、透明度不足、监管不力、就业影响以及AI解决方案的不平等可及性。 - **AI的负责任扩展**:需要在市场力量、健康文化与覆盖所有人之间取得平衡。建立可扩展、安全、透明和负责任的AI治理框架是关键。 - **多边合作的重要性**:各国在AI治理和政策协调方面需要加强合作,以促进AI在健康领域的可互操作性与公平性。 - **政策清单的作用**:该清单为政策制定者提供了一个全面的行动指南,涵盖数据治理、能力发展、监管措施、公众参与和伦理框架等多个方面。 ## 关键信息 ### 1. 人工智能在健康领域的实施现状 - 在OECD成员国中,AI已广泛应用于行政管理(100%),但在医疗影像应用方面仍处于较低水平(仅10%)。 - 一些国家已经开始制定AI健康战略或行动计划,如七个OECD国家已建立相关战略,其余国家正在推进。 - 目前主要挑战包括数据治理碎片化、监管不一致、缺乏跨系统协作,以及对AI解决方案的不信任。 ### 2. 政策清单的四大支柱 - **赋能者**:确保数据的可访问性、互操作性和质量,以支持AI解决方案的开发和部署。 - **护栏**:建立监管和治理机制,确保AI解决方案的安全性、透明度和责任归属。 - **参与**:鼓励公众、医疗工作者和行业参与AI解决方案的设计、部署和优化。 - **可信度**:通过伦理框架和生物伦理原则,确保AI在健康领域的负责任使用。 ### 3. 政策清单中的关键政策领域 #### 赋能者 - **健康数据的利用与保护**:包括数据可查找性、可访问性、互操作性、可重用性(FAIR原则)。 - **AI的保证和使用**:包括风险管理、技术评估、算法可用性、模型卡、采购流程、临床应用的审批与报销、责任范围、监管沙盒。 #### 护栏 - **监督、测量与监控**:包括后市场有效性、效益评估、能源使用、AI冠军/监管、问责机制、激励措施。 #### 参与 - **公众参与**:包括信任建立、教育、代表性和多样性。 - **医疗提供者参与**:包括信任、教育、临床采用和能力发展。 - **行业参与**:包括信任、合作、透明度和知识产权保护。 #### 可信度 - **伦理框架**:包括伦理原则、生物伦理评估、伦理与法律的一致性。 - **道德原则的全球一致性**:各国应基于共同的伦理标准,如OECD AI原则、WHO伦理指导和联合国教科文组织建议。 ### 4. 新兴最佳实践 - **数据治理**:如欧洲健康数据空间(EHDS)和国家健康数据管理机构的建立。 - **AI监管沙盒**:如英国NHS人工智能实验室和法国的AI政策框架。 - **模型卡**:如健康人工智能联盟(CHAI)提出的模型卡框架。 - **公众教育**:如芬兰的AI教育项目和法国的数字健康公民集会。 - **伦理影响评估**:如新西兰的国家AI与算法专家咨询小组(NAIAEAG)和韩国的AI治理框架。 ## 未来工作方向 - **加强跨境合作**:以统一数据标准、监管框架和伦理原则,促进AI在健康领域的可扩展性和公平性。 - **推动标准化与互操作性**:确保不同国家和系统之间的AI解决方案能够兼容并协同工作。 - **促进伦理与政策一致性**:通过国际组织和各国政策的协调,实现AI在健康领域的负责任扩展。 - **提升AI素养与信任**:加强公众、医疗工作者和行业对AI的理解与信任,以促进其广泛采用和有效实施。 ## 结论 OECD成员国正在积极采取行动,以推动AI在健康领域的负责任和可扩展应用。然而,仍需在数据治理、监管、伦理和公众参与方面进行更多努力。通过制定和实施政策清单,各国可以更有效地协调AI的使用,确保其在医疗系统中安全、公平和高效地运行。