X

/国际观点/

安全人工智能论坛(SAIF)人工智能政策高级研究员萨阿德·西迪吉(Saad Siddiqui)

发布时间:2026-03-25浏览次数:10作者:杨昭

访谈摘要

过去一年,全球AI治理经历了显著变化:一是产业界、学界与政府之间的协作日益紧密;二是对企业实施的约束性监管有所放缓;三是国际层面的关注点从安全转向行动与影响,AI安全峰会热度有所减退。同时,AI验证(Verification)已成为关键治理议题。展望未来,应积极推动AI研究机构与各国国家实验室之间的合作,以形成对风险的统一理解,并在关键议题上取得实质性进展。

访谈对象简介

萨阿德·西迪吉(SaadSiddiqui),安全人工智能论坛(SAIF)人工智能政策高级研究员

访谈整理

杨昭,全球人工智能创新治理中心研究助理

访谈正文

过去一年,全球AI治理经历了显著变化。一大趋势是产业界、学界与政府之间更紧密的协作,以欧盟AI行为准则草案的制定为例。这些准则将普遍适用于在欧盟销售AI服务的公司,包括中美企业。与过去明显不同的是,这些准则在具体性方面取得了进展,为治理前沿模型提供了更详细的规范。与此同时,对企业实施约束性监管的暂缓趋势也在出现。总体来看,尽管欧盟和部分美国州等特定司法管辖区继续推进监管措施,已经出现了显著的监管放缓趋势。在中国,这一趋势则以有针对性的举措体现,例如对AI生成内容的加水印要求。在国际层面,由于关注点从安全转向行动与影响,AI安全峰会的热度似乎有所减退,尽管有诸如新加坡AI大会等具有前景的、管制新兴焦点的技术论坛。

AI验证(Verification)已成为关键治理议题。随着AI能力的提升,未来可能就使用和获取先进系统达成的美中等大国协议将在很大程度上依赖可信的验证机制。目前这些大国之间的信任度较低,因此需要类似于核军控或《开放天空条约》中的强有力验证框架。验证成为地缘政治竞争者能够有效合作的领域之一。此类合作的相关风险相对较低,而在管理灾难性风险方面的潜在收益却非常显著,是竞争者之间在AI安全领域技术合作的少数几个机会之一。验证也成为了人工智能安全国际对话的重点议题。

全球南方国家在AI治理中面临的主要挑战是确保自身不会过度承担AI发展带来的外部性风险,以及获得公平获取先进AI模型的机会。然而,区分与前沿AI治理与能力建设相关的挑战至关重要。尽管前沿模型越来越趋向开源,但许多地区的重大限制常常是缺乏必要的数字基础设施来有效运行这些模型,这是一个根本的能力建设问题,而非单纯的治理问题。此外,这些地区特有的治理挑战包括确保模型对本地语言的适应性、对文化差异的敏感性,以及赋能本地创业者为其社区打造行之有效的AI产品。尽管诸如国际电联“人工智能向善”全球峰会等渠道提供了现有的参与机制。解决与AI相关的更棘手的地缘政治问题,可能需要更小规模且更聚焦的形式,或双边或限于少数国家的小范围合作。

未来全球AI治理应优先建立更多AI研究机构与各国国家实验室之间的联合测试演练。这应超越现有的国际AI安全研究院网络,涵盖更多双边安排或涉及新加坡、中国、英国等国家的多边小组。目标是构建共享的测试能力和讨论AI风险的统一术语,目前这些工作主要限于安全研究院网络内部的互动。这一基础对于形成对系统风险的统一理解至关重要。持续开展以议题为导向的政府间对话机制对于推动关键AI议题取得实质性进展至关重要。

* 萨阿德·西迪吉(SaadSiddiqui)个人观点,不代表SAIF或其他附属组织的机构立场