SheepNav
新上线27天前0 投票

一份AI发展路线图,如果还有人愿意倾听

在华盛顿与Anthropic的决裂暴露出人工智能领域完全缺乏连贯规则的背景下,一个由两党思想家组成的联盟近日发布了一份名为《亲人类宣言》的文件,试图为负责任的AI发展提供一个框架。这份宣言在五角大楼与Anthropic的对峙事件前完成,但两者的碰撞让各方都意识到其紧迫性。

宣言的核心:人类必须掌控AI

《亲人类宣言》由数百名专家、前官员和公众人物签署,开篇即指出人类正站在一个十字路口。一条路径是“替代竞赛”,可能导致人类首先作为工人被取代,然后是决策者,权力逐渐累积到不负责任的机构及其机器手中。另一条路径则是AI大规模扩展人类潜力。宣言明确支持后者,并提出了五大支柱:

  • 保持人类掌控:确保AI系统始终处于人类监督之下。
  • 避免权力集中:防止AI技术过度集中于少数实体。
  • 保护人类体验:维护人类文化、情感和社会联系。
  • 维护个人自由:保障隐私和自主权不受AI侵蚀。
  • 追究AI公司法律责任:建立明确的责任机制。

具体措施:禁止超级智能,强制“关闭开关”

宣言包含了一些强有力的条款,其中最引人注目的是:

  • 禁止超级智能开发:在科学界达成安全共识并获得真正民主支持之前,完全禁止超级智能的研究。
  • 强制“关闭开关”:所有强大AI系统必须配备有效的关闭机制。
  • 禁止危险架构:禁止能够自我复制、自主自我改进或抵抗关闭的AI架构。

这些措施旨在防止AI失控,确保技术发展始终服务于人类利益。

现实背景:五角大楼与Anthropic的对峙

宣言的发布恰逢一个凸显其紧迫性的时刻。就在上周,美国国防部长皮特·赫格塞思将Anthropic列为“供应链风险”,原因是该公司拒绝授予五角大楼对其技术的无限使用权。这一标签通常用于与中国有关联的企业。几小时后,OpenAI却与国防部达成了自己的协议,但法律专家指出该协议难以有效执行。

这一系列事件暴露了国会未能就AI监管采取行动所带来的高昂代价。正如美国创新基金会高级研究员迪恩·鲍尔所言,缺乏规则导致政府与企业之间的关系变得混乱且不可预测。

公众态度:95%的美国人反对无监管竞赛

MIT物理学家兼AI研究员马克斯·泰格马克在采访中表示:“过去四个月美国发生了一件相当了不起的事情。民意调查突然显示,95%的美国人反对无监管的超级智能竞赛。”这一数据反映了公众对AI风险的高度关注,也为《亲人类宣言》提供了广泛的社会基础。

挑战与展望:宣言能否被采纳?

尽管宣言提出了清晰的框架,但其实际影响力仍面临挑战。政府目前尚未表现出采纳类似方案的意愿,而企业利益与监管需求之间的冲突也在加剧。宣言的标题“如果还有人愿意倾听”本身就暗示了一种不确定性——在技术竞赛和政治博弈中,这样的声音是否会被重视?

然而,随着AI技术快速渗透军事、经济和社会各领域,建立全球性监管框架的需求日益迫切。《亲人类宣言》至少为这场讨论提供了一个起点,提醒各方:在追求技术进步的同时,必须将人类置于中心位置。否则,我们可能在不经意间走上那条“替代竞赛”的道路。

延伸阅读

  1. 出差两个月,我让智能花盆自己照顾植物——结果令人惊喜
  2. 如何清理Android手机缓存——以及为何它能显著提升性能
  3. 电工警告:这7种常见家用电器切勿插在延长线上
查看原文