一份AI发展路线图,如果还有人愿意倾听
在华盛顿与Anthropic的决裂暴露出人工智能领域完全缺乏连贯规则的背景下,一个由两党思想家组成的联盟近日发布了一份名为《亲人类宣言》的文件,试图为负责任的AI发展提供一个框架。这份宣言在五角大楼与Anthropic的对峙事件前完成,但两者的碰撞让各方都意识到其紧迫性。
宣言的核心:人类必须掌控AI
《亲人类宣言》由数百名专家、前官员和公众人物签署,开篇即指出人类正站在一个十字路口。一条路径是“替代竞赛”,可能导致人类首先作为工人被取代,然后是决策者,权力逐渐累积到不负责任的机构及其机器手中。另一条路径则是AI大规模扩展人类潜力。宣言明确支持后者,并提出了五大支柱:
- 保持人类掌控:确保AI系统始终处于人类监督之下。
- 避免权力集中:防止AI技术过度集中于少数实体。
- 保护人类体验:维护人类文化、情感和社会联系。
- 维护个人自由:保障隐私和自主权不受AI侵蚀。
- 追究AI公司法律责任:建立明确的责任机制。
具体措施:禁止超级智能,强制“关闭开关”
宣言包含了一些强有力的条款,其中最引人注目的是:
- 禁止超级智能开发:在科学界达成安全共识并获得真正民主支持之前,完全禁止超级智能的研究。
- 强制“关闭开关”:所有强大AI系统必须配备有效的关闭机制。
- 禁止危险架构:禁止能够自我复制、自主自我改进或抵抗关闭的AI架构。
这些措施旨在防止AI失控,确保技术发展始终服务于人类利益。
现实背景:五角大楼与Anthropic的对峙
宣言的发布恰逢一个凸显其紧迫性的时刻。就在上周,美国国防部长皮特·赫格塞思将Anthropic列为“供应链风险”,原因是该公司拒绝授予五角大楼对其技术的无限使用权。这一标签通常用于与中国有关联的企业。几小时后,OpenAI却与国防部达成了自己的协议,但法律专家指出该协议难以有效执行。
这一系列事件暴露了国会未能就AI监管采取行动所带来的高昂代价。正如美国创新基金会高级研究员迪恩·鲍尔所言,缺乏规则导致政府与企业之间的关系变得混乱且不可预测。
公众态度:95%的美国人反对无监管竞赛
MIT物理学家兼AI研究员马克斯·泰格马克在采访中表示:“过去四个月美国发生了一件相当了不起的事情。民意调查突然显示,95%的美国人反对无监管的超级智能竞赛。”这一数据反映了公众对AI风险的高度关注,也为《亲人类宣言》提供了广泛的社会基础。
挑战与展望:宣言能否被采纳?
尽管宣言提出了清晰的框架,但其实际影响力仍面临挑战。政府目前尚未表现出采纳类似方案的意愿,而企业利益与监管需求之间的冲突也在加剧。宣言的标题“如果还有人愿意倾听”本身就暗示了一种不确定性——在技术竞赛和政治博弈中,这样的声音是否会被重视?
然而,随着AI技术快速渗透军事、经济和社会各领域,建立全球性监管框架的需求日益迫切。《亲人类宣言》至少为这场讨论提供了一个起点,提醒各方:在追求技术进步的同时,必须将人类置于中心位置。否则,我们可能在不经意间走上那条“替代竞赛”的道路。