2025年11月,英国未来工作研究所(Institute for the Future of Work, IFOW)教授、欧盟联合技术委员会 JTC21(CEN-CENELEC)指定的人工智能专家代表菲比·V·摩尔(Phoebe V. Moore)发文探讨了欧盟《人工智能法案》(AI Act)在应对人工智能风险与不确定性方面的制度困境。文章以“黑箱”隐喻指出,欧盟AI监管过程本身存在透明度不足、企业游说过度及责任划分模糊等问题。法案虽在条文中区分了AI“提供者”和“部署者”,但却忽略了最受影响的普通用户——公民、消费者与劳动者。AI系统的自主性与适应性使其行为具有高度不可预测性,这导致传统风险评估与责任认定难以适用。文章呼吁,AI监管应明确“不可接受风险”的界限,确保测试与合规机制的伦理与透明性。在促进创新与维护公众权益之间,欧盟AI治理的关键在于防止监管“黑箱化”与风险常态化,以实现技术发展与社会保护的平衡。图源:未来工作研究所(Institute for the Future of Work, IFOW)人工智能,“智能”在哪里?麦卡锡等人在 1955 年提出人工智能概念时注意