精选昨天0 投票
官僚沉默:加拿大AI注册表揭示、遗漏与遮蔽了什么
加拿大AI注册表:透明承诺下的“官僚沉默”
2025年11月,加拿大政府发布了首个联邦AI注册表,旨在兑现其透明度承诺。然而,一项最新研究揭示,这份包含409个系统的注册表远非政府活动的“中性镜子”,而是通过“本体设计”主动塑造问责边界的工具。研究团队采用ADMAPS框架进行分析,发现注册表在呈现AI系统时存在系统性偏差。
效率优先:86%系统部署于内部
数据显示,注册表中86%的AI系统被部署用于内部效率提升,而非面向公众的决策。这一比例凸显了政府AI应用的核心驱动力——行政优化而非公共服务创新。研究指出,这种部署模式与“主权AI”的宏大叙事形成鲜明对比,实际应用更偏向于官僚体系的日常运作需求。
技术描述遮蔽社会技术背景
注册表在描述AI系统时,过度强调技术细节而忽略社会技术背景。具体表现为:
- 人类裁量权被隐藏:系统运行中所需的人工判断与干预未被充分记录
- 培训过程缺失:操作人员如何被培训以使用这些系统的信息严重不足
- 不确定性管理模糊:AI决策中的风险与不确定性如何被管理的细节被系统性地遮蔽
这种描述方式构建了一种“AI作为可靠工具”的本体论,而非“可争议的决策过程”。
问责自动化:从实质到表演
研究警告,如果设计理念不改变,此类透明度工具可能将问责“自动化”为一种表演性的合规练习。注册表提供了可见性,却未提供可争议性——公众能看到系统存在,但无法有效质疑其决策逻辑与影响。这种“官僚沉默”机制,通过选择性呈现信息,实际上重新配置了谁该负责、对什么负责的边界。
对全球AI治理的启示
加拿大案例并非孤例。随着各国纷纷建立AI注册表、算法透明度机制,一个关键问题浮现:透明度的形式是否正在取代其实质?当注册表沦为技术清单,而忽视算法背后的权力关系、价值判断与不确定性时,所谓的“负责任AI”可能只是一层薄薄的技术外衣。
这项研究提醒政策制定者:真正的透明度需要超越系统计数,深入揭示AI在公共部门中的实际运作方式——包括它的失败、模糊地带与人为因素。否则,AI注册表可能只是另一种形式的“官僚沉默”,用数据遮蔽了更复杂的真相。