
AlphaGo之父:当前AI走错了路,超级智能不应依赖人类数据
从AlphaGo到超级学习机:一条不同的路
2016年,AlphaGo 击败围棋世界冠军李世石,让世界第一次见识了“超级智能”的雏形。如今,AlphaGo 的核心开发者 David Silver 带着新公司 Ineffable Intelligence 重返聚光灯下,并直言不讳地批评当前AI的主流方向——大型语言模型(LLM)——是一条死胡同。
强化学习:可再生能源 vs. 化石燃料
Silver 认为,LLM 本质上是在“模仿”人类智能,它们从海量的人类生成数据中学习模式和知识。他将这种数据比作“化石燃料”——虽然能提供快速的捷径,但终有枯竭且无法真正超越人类。
而他的公司选择押注 强化学习,让AI通过试错与环境互动,自主发现策略。Silver 形象地称之为“可再生能源”——可以无限学习、自我进化,不受人类认知边界的限制。这种思路正是 AlphaGo 成功的关键:AlphaGo 不仅学习了人类棋谱,更通过自我对弈(self-play)发现了人类从未想过的妙招。
“超级学习者”的野心
Ineffable Intelligence 的目标是构建 “超级学习者”(Superlearners)——能够在科学、技术、经济甚至政府治理等多个领域自主发现新知识的AI系统。Silver 将这一使命比作“与超级智能的第一次接触”。
这家成立不久的初创公司已获得 11亿美元 的种子轮融资,估值高达 51亿美元,成为欧洲AI领域的独角兽。Silver 还从 Google DeepMind 等前沿实验室招募了顶尖研究员,组建了一支实力强劲的团队。他承诺将个人股权收益全部捐出,用于推动这一愿景。
分歧:硅谷的“捷径”与Silver的“长征”
当前,多数AI公司(如 OpenAI、Anthropic)正通过扩展 LLM 的规模、增强推理能力(如链式思维、工具使用)来逼近通用人工智能(AGI)。但 Silver 认为,这条路本质上受限于人类数据的质量和多样性,无法真正实现“超人类”的原创性突破。
他的观点并非孤例。部分研究者指出,LLM 的“幻觉”问题、对训练数据的依赖以及缺乏真正的因果推理能力,都可能是通向超级智能的障碍。而强化学习——尤其是与深度学习结合的深度强化学习——已被证明在围棋、游戏、机器人控制等领域能产生超越人类的表现。
挑战与未来
不过,Silver 的路线也面临巨大挑战。强化学习在复杂、开放环境中的样本效率极低,往往需要数亿次试错才能学会简单任务。如何让“超级学习者”在真实世界的高维问题中高效学习,仍是未解难题。此外,安全性和对齐问题同样不容忽视:一个自我进化的智能体,若目标设定不当,可能产生不可控的行为。
Ineffable Intelligence 尚未公布具体的技术路线图或产品原型。但 Silver 的愿景无疑为AI行业注入了一股清流:与其让机器模仿人类,不如让它们创造属于自己的智慧。
