编者注
当前,人工智能技术的跨域渗透重塑全球发展格局,全球人工智能治理已成为国际议程核心议题。在此背景下,如何将全球治理共性原则转化为实践指引,平衡创新活力与风险底线,是全球学界业界的核心探索命题。在全球 AI治理规则加速成型的背景下,该作者捕捉到欧盟监管框架所构建的价值链与人工智能系统动态性之间的矛盾,既提出了新兴模型中介地位模糊、智能体发展冲击既有风险分类标准等全球视域下人工智能法律研究的共同性问题,又倡导建立全价值链上市后信息共享机制等五项建议,为增强监管的适应性、效能与法律确定性提供了路径。
以下译文仅呈现原文作者的分析逻辑与研究结论,不代表编译者或发布平台的立场。
摘要
欧盟《人工智能法案》作为全球首个综合性人工智能监管框架,已于2024年8月生效,但其制度框架与实施细则仍在构建之中。报告聚焦于评估该法案是否充分体现了技术中立原则,并重点分析其应对动态变化的“人工智能价值链”的能力。报告指出,法案构想了由通用人工智能模型提供商、人工智能系统提供商及部署方构成的三层监管价值链,为此,报告提出了五项核心建议,旨在通过倡导全价值链合作与信息共享,特别是加强上市后阶段的协作,使监管框架更具适应性、效能和竞争力。

《人工智能法案》与技术中立性原议题文件
来源:欧洲监管中心(CERRE)智库
技术中立原则
技术中立原则是欧盟完善监管工具箱(Better Regulation)中的核心原则,其背后蕴含三种主要构建方式:一是作为非歧视原则在技术领域的应用,要求功能等效的技术受到同等对待;二是保障立法可持续性,使法律能够经受技术演进考验;三是秉持非干预主义,避免法律决定或限制技术创新路径。这三种构建最终对立法者形成趋同建议,即采用功能或经济定义而非技术定义,聚焦成果导向而非规定实现方式,采用基于原则的监管方法,并依托独立监管机构弥合立法与现实发展间的差距。
技术中立原则并非绝对,当存在客观理由时,可以对特定商业模式或技术方法进行区别对待。《人工智能法案》中采用训练计算量作为分类标准,正是对技术中立原则的一次显著偏离。尽管这可能源于行业对明确标准的需求,但将单一技术特征作为长期风险代理指标的做法值得商榷。技术中立性还具有常被忽视的“垂直维度”。当技术选择关联着不同的价值链设计时,立法应避免对价值链结构及各参与方责任分配做出可能固化特定技术路径的隐性假设。这可以引申出“价值链中立”的概念,即在监管时保持对由技术驱动的不同价值链模式的中立态度。历史经验表明,颠覆性创新往往与现有价值链冲突,僵化的监管框架可能成为阻碍。因此,在人工智能这类快速发展的领域,保持价值链中立对于保障监管有效性、促进创新与竞争至关重要。

欧盟《人工智能法案》
来源:环球网
《人工智能法案》对监管型人工智能价值链的构想
《人工智能法案》最初的监管体系围绕“人工智能系统”这一核心概念构建。其定义基于自主性、适应性及推断能力等功能描述,而非具体实现技术,体现了技术中立性。该系统从特定环境中感知输入,通过AI模型处理,并生成输出作用于环境,形成一个闭环。

人工智能系统概念化示意图
来源:欧洲监管中心(CERRE)智库
报告认为,法案基于风险构建了四级监管金字塔,对“高风险人工智能系统”施加了最严格的上市前合规与上市后监测义务。然而,ChatGPT的出现挑战了法案的两个基本假设:其一,人工智能系统并非必然具有特定用途;其二,模型与系统之间存在可分离性。为此,立法者新增了“通用用途人工智能”(GPAI)模型的概念及其平行监管机制。GPAI模型被定义为展现出显著通用性、能胜任多种不同任务的AI模型。法案进一步采用训练计算量标准(如10^23 FLOP作为GPAI模型的指示性标准,10^25 FLOP作为推定具有系统性风险的标准)进行分类。

《人工智能法案》四级监管金字塔
来源:欧盟网站
基于此,法案构想出三层监管价值链:GPAI模型提供商、AI系统提供商以及部署方。法案明确了各方在此链条中的责任。例如,高风险AI系统提供商需与第三方输入供应商通过书面协议明确信息共享机制。GPAI模型提供商必须向下游AI系统提供商提供必要的文档与信息。
在上市后监管方面,义务分配也呈现出差异。所有AI系统都受欧盟市场监督机制约束。高风险AI系统提供商必须建立上市后监测体系,记录日志,并按规定时限向监管机构报告严重事件。部署方则有义务监控系统运行,依据使用说明向提供商提供相关性能数据,并报告严重事件。然而,对于不构成系统性风险的GPAI模型提供商,法案并未设定明确的上市后监测义务。同时,法案也未明确要求向高风险人工智能系统的供应商提供监测所需信息。因此,只有根据法案第25条第4款对所有第三方输入供应商普遍适用的义务,才可能产生信息提供义务。此外,该法案对无系统性风险的 GPAI模型供应商报告严重事件的具体规定也未作明确。
因此,《人工智能法案》虽明确了人工智能价值链中各参与方的具体职责,但这些职责主要聚焦于人工智能系统本身。相比之下,法案对 GPAI模型供应商在价值链中的角色及其与其他参与方的关系着墨较少。这一点在无系统性风险的 GPAI模型供应商身上尤为明显。结合 GPAI模型和具有系统性风险的 GPAI模型的定量标准,该框架可能引发问题。低于系统性风险值的 GPAI模型提供商即使其模型在人工智能系统中使用导致严重事故,也无需承担协作或信息报告义务。
人工智能生态系统的发展与《人工智能法案》的监管价值链
人工智能生态系统的快速发展正在动摇《人工智能法案》对价值链的假设。当前的创新通过复杂且相互依存的生态系统展开,模型基于彼此输出构建,企业将多种模型和服务整合到单一产品中,现实比法案假设的链条更具流动性和网络化特征。这带来了以下关键挑战:
首先,法案依赖的训练计算量作为风险分类标准正受到质疑。随着模型蒸馏、微调和小型专用模型等技术的发展,小型模型能以更少计算量实现强大能力,计算量可能迅速成为风险评估的劣质替代指标。例如,通过蒸馏技术从大型模型衍生的小型模型可能继承其风险特征,却因低于标准值而逃避监管。
其次,新兴的云平台和模型托管渠道(如谷歌Model Garden、亚马逊Bedrock)承载着海量模型,形成了法案几乎未予考虑的重要中介环节。这些平台在风险监测和信息共享方面可能发挥关键作用,但其在法案中的法律地位是分销商、供应商还是其他角色并不明确。
再者,自主型人工智能的崛起突破了法案传统的分类框架。智能体AI能够自主适应不同任务和环境,其风险更多地取决于部署策略,这使得事前风险评估更加困难,且与法案将主要责任归于提供商、基于特定高风险用途监管的模式存在冲突。智能体AI可能更接近“通用型人工智能系统”的概念,但该类别目前在法案中尚不完善。
上述趋势表明,僵化界定价值链角色可能适得其反,尤其是在上市后风险难以预见的阶段。因此,有必要转向“价值链中立”的监管思路,倡导全价值链问责制。具体而言,其核心原则是:每个参与者都应承担信息共享义务,确保其他方能够履行职责并快速处置事件。这要求建立更灵活的合作与信息共享机制,例如通过行业或公共机构建立标准化的事件报告与共享数据库,并辅以保护商业秘密和竞争的法律保障。价值链中的信息流应是双向的,即风险识别信息自右向左从部署方向提供商流动,而风险信息与纠正措施则自左向右传播。

人工智能价值链的简化示意图
来源:报告原文
结论与建议
综上所述,《人工智能法案》在技术中立性方面面临诸多挑战,包括其价值链模型难以适应生态系统的流动性、对GPAI模型提供商与AI系统提供商的角色界定存在差异且存在监管空白、事前风险分类与事后损害显现之间存在张力,以及单一计算量标准可能因技术发展而不再适应等。
为应对这些挑战,推动法案向更具适应性和效能的方向发展,报告提出以下五项核心建议:
建议1:立法者应为人工智能价值链建立合作的通用原则,以支持有效风险识别与防范,避免完全规定价值链结构与角色。基于原则的方法更具灵活性,能够适应特定情境和技术演变。人工智能办公室可随后发布关于价值链间预期共享信息的补充指导。
建议2:随着通用人工智能系统相关性增强,人工智能办公室应提供指导,推动其更全面地融入《人工智能法案》框架。 作为第一步,监管机构应重点监测现有合同安排、市场激励及协同监管工具对缓解系统风险的效果,后续指导应基于观察到的最佳实践和市场失灵现象进行完善。
建议3:行业参与者应建立新的机构和机制,以便在上市后阶段更广泛地分享有关事故和风险的信息。可借鉴航空、网络安全等领域经验,建立标准化的事件信息数据库或信息中心,作为风险防范预警的关键基础设施。
建议4:人工智能办公室应明确高风险AI系统投入品供应商的责任,以避免对重要投入品的提供产生寒蝉效应,同时允许制定具体情境的协议和解决方案。 需澄清相关义务的范围与边界,确保不因过度繁重的合规要求阻碍高风险领域中有价值AI系统的开发与供应。
建议5:鉴于当前技术发展,人工智能办公室应重新评估作为分类GPAI模型和GPAI模型系统性风险代理指标的具体标准。 随着实践经验的积累,应进一步发展出更直接、精细且技术中立的分类方法,以更准确地识别和管理系统性风险。
通过采纳这些建议,欧盟可以使其人工智能监管框架更具韧性,更好地平衡安全、创新与竞争力目标,在快速变革的技术浪潮中保持前瞻性与有效性。
原文链接
https://cerre.eu/publications/the-ai-act-and-technological-neutrality/
