> **来源:[研报客](https://pc.yanbaoke.cn)** 以下是对《人工智能法案》的总结,字数不超过1000字: 欧盟《人工智能法案》(AIAct)是一套全面且以风险分级为核心的人工智能监管框架,旨在保障人工智能技术的伦理性和安全性。该法案具有域外效力,适用于在欧盟使用或部署的人工智能系统,无论其提供者是否位于欧盟境内,均需遵守相关义务。法案主要涵盖以下内容: 1. **核心原则与义务分配** - 法案基于“风险分级”对人工智能系统进行分类,分为不可接受风险(禁止)、高风险(严格监管)、有限风险(透明度要求)和极低风险(无强制要求)四类。 - 参与供应链的六类主体(提供者、部署者、进口商、分销商、产品制造商、授权代表)均需履行特定职责。高风险系统提供者需进行合规性评估、记录数据、确保准确性与网络安全,并可能需要向欧盟数据库注册。部署者需进行人工监督,应对系统输出的透明度进行说明。 - 禁止以下高风险行为: - 使用潜意识操控技术干扰个人判断; - 通过无差别抓取数据构建面部识别数据库; - 在工作场所或教育环境中进行情绪推断(非医疗或安全用途); - 基于生物特征进行歧视性分类(如种族、政治倾向等); - 公共场所的实时远程生物识别(部分例外情形适用)。 2. **透明度与可解释性义务** - 针对高风险系统、生成合成内容、情绪识别及生物特征分类系统,提供者需向用户披露技术细节、限制条件和操作方式,并以技术文档和用户指南的形式实现“可解释性”。 - 人工智能生成内容(如音频、图像、视频)必须通过标签或水印等手段明确标识其非人工来源,但艺术、合法执法用途等情形可豁免。 3. **监管工具与沙盒机制** - **人工智能监管沙盒**:成员国需建立沙盒,允许企业以受控方式测试创新系统,降低合规风险。沙盒参与者需签署协议并接受市场监管机构监督。 - **真实世界测试**:测试需经批准,且需满足保护参与者权利的条件,如知情同意、风险可控性和数据隐私要求。 4. **执法与合规机制** - 建立多层次监督框架,包括国家层面市场监督机构和欧盟层面的人工智能办公室(AIO)及欧洲人工智能委员会(AICO)。 - 项目需通过CE标志认证,符合技术标准(如准确性、鲁棒性、数据治理)。未合规或高风险行为将面临最高3500万欧元或年营业额7%的罚款(以较高者为准)。 - 纠正义务包括召回、暂停使用或采取补救措施。 5. **治理与标准化** - 欧盟委员会需制定协调标准(如数据治理、风险管理体系)并发布行为准则,各国需在2026年8月2日前建立沙盒。 - 通过《人工智能责任指令》草案完善责任规则,若部署者未履行监督义务或使用不完整数据,可能推定其对损害负责。 6. **时间线与实施阶段** - **2024年7月12日**:法案公布,明确具体条款适用期。 - **2025年2月2日**:禁止性行为及人工智能素养要求生效。 - **2025年8月2日**:通用人工智能模型义务生效,高风险系统透明度规则落地。 - **2026年8月2日**:法案核心条款全面实施,包括高风险系统合规程序。 - **2030年12月31日**:大型信息系统组件需符合更新标准。 7. **例外与豁免** - 军事、国家安全用途及第三国公共部门在跨境合作框架内使用的系统可能豁免,但需确保基本权利保障。 - 部分技术(如逻辑回归)不被认定为AI系统,非生物特征情绪识别工具可免于部分义务。 8. **与其他法规的关系** - 法案补充GDPR、《电子隐私指令》、《执法指令》等相关义务,与之协调但不替代。 - 新设欧盟人工智能办公室和欧洲人工智能委员会,负责标准制定、务实指导及跨机构协调。 9. **未来走向** - 法案后续将通过授权法案、执行法案和指导文件细化规则,重点关注通用人工智能模型(GPAI)的风险评估与透明度要求。 - 预计至2025年发布禁止行为实例清单,2026年完善高风险系统判定标准,并在2028年评估行为准则的有效性。 该法案通过分阶段实施、技术中立的分类体系和跨国家/欧盟的协作机制,建立了全球最全面的人工智能监管框架,强调风险预防、透明度和基本权利保护,同时为创新提供指导性支持,平衡监管与技术发展需求。