SheepNav
新上线今天0 投票

大卫·萨克斯白宫翻车记:从AI去监管到联邦审查的180度大转弯

从“放任”到“严管”:白宫AI政策为何急转弯?

本周一,《纽约时报》曝出白宫正考虑对AI模型实施发布前政府审查。对普通读者而言,这似乎是特朗普政府政策的彻底逆转——过去一年,他一直是“亲产业去监管”的旗手:废除拜登的AI安全行政令、取消先进芯片出口管制、签署惩罚各州自行制定AI法律的行政令。如今,白宫却要求联邦对上市前模型进行审查与监督

但在华盛顿圈内,这一转变源于三大动因:

  • Anthropic的“神话”模型引发国家安全恐慌:该模型的能力让国安部门担忧——对手可能利用美国AI模型攻击美国公共与私营部门。
  • 他国开始制定AI法规:其他国家正以可能违背美国利益的方式出台AI监管措施(例如“用无人机定点摧毁某大数据中心”这种极端形式)。
  • 大卫·萨克斯(David Sacks)被边缘化:这位AI与加密货币沙皇一直主张轻监管,但如今其影响力已被国家安全团队压制。

萨克斯的失势:从“沙皇”到局外人

萨克斯曾是白宫AI政策的核心推手,倡导“创新优先、监管靠后”。然而,随着Mythos模型暴露的风险升级,以及盟友国家纷纷出台强硬AI法律,特朗普的国安顾问团队——包括国务卿、国防部长和情报总监——联合推动政策转向。萨克斯在内部辩论中节节败退,最终被排除在决策圈外。

一位不愿透露姓名的白宫官员表示:“萨克斯的‘硅谷乌托邦’论调在国家安全面前不堪一击。当对手可能用你的AI瘫痪电网时,成本收益分析就彻底变了。”

联邦审查:是保护还是枷锁?

新政策框架下,所有计划在美国市场发布的高风险AI模型需先通过联邦评估,重点检查其对国家安全、关键基础设施和公共安全的潜在威胁。评估由新成立的“AI模型审查办公室”执行,该机构直接向总统汇报。

科技界反应两极:Anthropic和OpenAI表示愿意配合,但强调审查流程需透明高效;而Meta和Google则警告此举可能扼杀创新,将AI研发推向海外。萨克斯本人尚未公开评论,但据其盟友透露,他私下称这是“科技史上最愚蠢的政策逆转”。

国际博弈:监管竞赛还是脱钩前兆?

值得注意的是,欧盟已通过《AI责任法案》,要求基础模型开发商承担连带责任;英国则设立“AI安全研究所”进行模型审计。特朗普政府此前曾嘲笑这些举措为“官僚主义枷锁”,如今却被迫效仿。

更激进的案例是,某东南亚国家据称已授权军方在发现外国AI模型被用于攻击本国网络时,可采取“物理手段”摧毁其算力基础设施。这促使美国国安团队意识到:不监管,可能意味着失去对AI安全的控制权

结语:硅谷与华盛顿的决裂

这一政策转向标志着特朗普政府内部“技术自由派”的失败。萨克斯的“翻车”不仅是个人的挫败,更反映了AI从商业竞赛升级为国家安全议题的必然趋势。未来,白宫可能推出更严格的《AI出口管制法》,而硅谷与华盛顿之间的紧张关系将进一步加剧。

(注:本文基于《The Verge》资深记者Tina Nguyen的报道,原文发表于2026年5月6日。)

延伸阅读

  1. 马斯克最忠诚的盟友,如今成了他最大的软肋
  2. 马斯克最后一搏控制 OpenAI:曾试图挖角奥特曼加入特斯拉
  3. 聊天机器人需要护栏,以防产生妄想和精神错乱
查看原文