X

/国际观点/

印度战略远见集团总裁桑迪普·瓦斯雷卡(Sundeep Waslekar)

发布时间:2026-03-25浏览次数:14作者:姜珺吉

访谈摘要

过去一年,全球AI治理虽取得积极进展,但西方国家与全球南方国家在风险关注上的差异阻碍了合作。要构建平衡、包容、前瞻的治理体系,应关注四个方面:一是提升全球南方国家对短期与长期AI发展及其风险的认知;二是促进全球南方国家之间的合作;三是鼓励全球南方国家探索自主大模型技术;四是将风险缓解措施与发展诉求相结合,在全球AI治理框架下弥合全球南方国家与先进AI国家之间的差距。

访谈对象简介

桑迪普·瓦斯雷卡(SundeepWaslekar),印度战略远见集团总裁

访谈整理

姜珺吉,全球人工智能创新治理中心研究助理

访谈正文

我们认为,在过去一年中,全球AI治理领域发生了以下关键事件:

一是《人工智能与人权、民主与法治框架公约》(Artificial Intelligence and Human Rights, Democracy and the Rule of Law)于2024年9月5日向各国开放签署;

二是加拿大、韩国和印度分别成立了AI安全研究所,目前全球约有12家此类研究所;2024年11月21日,国际AI安全研究所网络启动;

三是2025年1月,由约书亚·本吉奥(YoshuaBengio)牵头的《国际AI安全报告》(International AI Safety Report)发布,评估通用AI风险并提出缓解策略;2025年5月,《新加坡AI安全研究优先事项共识报告》(The Singapore Consensus on Global AI Safety Research Priorities)发布;

四是2024年9月,约60个国家(包括美国)在首尔“军事领域负责任使用人工智能”峰会上支持了一项行动蓝图;

五是2024年12月19日,联合国安理会召开有关AI及其对国际和平与安全影响的部长级简报会,联合国秘书长安东尼奥·古特雷斯强调亟需国际“护栏”以确保AI在人类监督之下,尤其在军事应用方面;

六是2024年12月,战略远见集团与日内瓦安全政策中心完成了针对联合国安理会五个常任理事国的AI与核指挥控制通信(AI-NC3)融合的二轨对话进程,该进程成果为生命未来研究所采纳于2025年2月发布的《核领域负责任AI使用框架》(Framework for Responsible Use of AI in the Nuclear Domain),该框架阐明了制定国际框架以应对AI与核指挥控制通信系统融合的必要性;

七是2024年9月,加州州长加文·纽瑟姆否决了旨在追究大型AI模型开发者对“灾难性”伤害负责的SB1047法案;

八是2025年1月,特朗普政府撤销了此前要求主要AI开发者向联邦政府共享安全评估的行政令,此举使美国暂时没有正式的AI监管政策;特朗普已宣布拟于2025年7月公布新的AI政策;

九是2025年4月26日,习近平总书记在中共中央政治局就加强人工智能发展和监管进行第二十次集体学习时发表重要讲话,强调防范先进AI风险;

十是2025年5月,天主教教皇利奥十四世就AI的社会风险发出警示,将其与1891年教皇利奥十三世发布的论述工业革命挑战的通谕相类比,呼吁在AI时代保持道德规范和指导。

在这一进程中,我们也认为AI安全和相关合作还面临一系列的阻碍,亟需我们重点关注。其中,一些西方国家关注尖端AI系统可能带来的极端风险,例如灾难性和生存性风险,但全球南方国家则关注技术在社会公益和经济改善方面的应用,以及AI被用于欺诈和犯罪等滥用风险。这两种不同的优先事项使得全球范围内的AI治理合作面临阻碍。

展望未来,美国、英国、中国以及可能包括韩国在内的先进国家的公司正朝着以下方向发展:构建能够处理复杂任务的人工智能(OpenAI于2024年12月发布了o3)、无需依赖人工策划数据集即可进化的人工智能干预(DeepMind于2024年10月发布了Boundless Socratic Learning BSL)、能够整合语言、视觉和身体动作以使机器人执行复杂任务的人工智能(DeepMind于2025年3月发布了Gemini Robotics)、构建由人脑类器官组成的生物计算机,为人工智能计算提供一种能耗更低的新方法(Final Spark于2024年8月推出,尚处于早期实验阶段,但具有长期颠覆性潜力)、将动物的发声和肢体语言翻译成人类语言的人工智能技术,旨在弥合物种间的交流障碍(百度于2025年5月提交专利申请,媒体有报道但详情未知,若该公司公布更多科学细节,将被视为拓展认知研究边界的突破性成果)。

因此,美国、英国、中国以及可能包括韩国在内的先进国家的公司正朝着利用AI重新定义科学本身,发现新的数学定理和物理定律的方向发展。未来这些国家的AI将结合先进的LLM、认知工程、神经符号AI、神经形态计算和联邦AI。

沙特阿拉伯和阿联酋已向美国大型科技公司投资数十亿美元以积极融入这些进展,尤其是自2025年1月以来。相比之下,全球南方国家主要专注于调整西方开发的基础模型以构建本地语言LLM,忽视了对AGI及认知工程和神经符号AI等前沿进展的讨论。全球南方国家希望利用包括2024年两位诺贝尔奖得主和图灵奖得主在内的AI科学家所开发的技术,但他们不愿讨论这些科学家所警示的未来AI进展可能带来的灾难性风险。因此,除中国和韩国外,全球南方国家可能最终成为接受西方国家所制定的规则的规则接受者,并将西方技术用于本地应用,而非规则制定者。

这种差距将在风险和机遇层面同时造成巨大的裂痕。先进国家将利用AI挑战科学前沿,如果它们的部分努力导致AI演化脱离人类控制,可能对人类造成灾难性和生存性风险。另一个风险是少数参与者之间的权力竞争,其中某些参与者可能会以人类历史上从未有过的方式影响地球的命运。全球南方国家专注于本地语言模型和数据主权,但可能面临沦为消费者、劳动力供应者和次级参与者的风险。

有必要制定平衡、包容、具有前瞻性且能同时兼顾风险和机遇的AI治理体系。联合国是一个重要平台,但关键在于它是否能发挥有效作用。通过探索建立超越非约束性宣言的机制,联合国在全球AI治理中的作用有望得到加强。

因此建议:一是提高全球南方国家对短期与长期AI发展及风险的认知;二是促进全球南方国家之间的合作,以便能够共同获得AI的一些潜在益处;三是鼓励全球南方国家考虑除数据密集型和能源密集型的LLM之外的其他选项;四是在新的平衡的全球AI治理框架下,将风险缓解措施与发展诉求相结合,弥合全球南方国家与先进AI国家之间的差距;五是战略远见集团愿意与其他国际机构深入合作,探索和完善全球AI治理框架。