美国AI工具使用率攀升,但民众对结果信任度持续走低
根据昆尼皮亚克大学最新发布的一项民意调查,美国民众对人工智能工具的使用率正在显著上升,但与此同时,对AI生成结果的信任度却依然低迷。这一矛盾现象揭示了AI技术普及过程中的深层社会心理障碍。
使用与信任的显著背离
调查显示,在近1400名受访者中,高达76%的人表示他们“很少”或“只是有时”信任AI,而表示“大多数时候”或“几乎总是”信任AI的比例仅为21%。与此形成鲜明对比的是,AI工具的实际采用率却在稳步增长:表示“从未使用过AI工具”的受访者比例从2025年4月的33%下降至目前的27%。
昆尼皮亚克大学计算机科学教授切坦·贾斯瓦尔指出:“AI使用与信任之间的矛盾非常突出。51%的人表示他们使用AI进行研究,许多人还将其用于写作、工作和数据分析。但只有21%的人大部分时间或几乎总是信任AI生成的信息。美国人显然在采用AI,但他们带着深深的犹豫,而非深深的信任。”
普遍存在的担忧与负面预期
这种信任缺失部分源于对AI未来影响的普遍忧虑。调查发现,仅有**6%的受访者对AI感到“非常兴奋”,而62%**的人表示“不那么兴奋”或“完全不兴奋”。当谈及担忧时,这一比例几乎反转:**80%**的受访者表示“非常担忧”或“有些担忧”AI的发展。千禧一代和婴儿潮一代最为忧虑,Z世代紧随其后。
在AI对日常生活影响的预期上,超过半数(55%)的受访者认为AI“弊大于利”,只有约三分之一的人认为“利大于弊”。与去年的调查相比,对AI持负面看法的人数有所增加。研究人员认为,这或许并不令人意外——过去一年中,科技巨头裁员、与AI相关的极端心理案例以及耗能巨大的数据中心建设等问题持续引发公众关注。
具体关切:透明度、监管与社会影响
调查进一步揭示了民众不信任的几个核心原因:
- 透明度缺失:许多受访者表示,AI的决策过程如同“黑箱”,缺乏可解释性,这直接影响了他们对输出结果的信任。
- 监管滞后:公众普遍认为,当前对AI技术的监管框架尚不完善,无法有效防范其潜在风险,如偏见、错误信息和隐私侵犯。
- 广泛的社会冲击:除了对个人生活的直接影响,受访者还担忧AI对就业市场、社会公平乃至能源消耗(如数据中心)带来的宏观挑战。例如,高达**65%**的受访者反对在自己的社区建设AI数据中心,主要理由是高昂的电力成本和水资源消耗。
对AI行业的启示
这份民调为AI开发者、企业和政策制定者敲响了警钟。它表明,单纯提升AI工具的普及率和功能强大性,并不足以赢得公众的广泛接纳。未来的发展重点必须转向:
- 构建可信AI:通过提高算法透明度、可解释性和可审计性,逐步打破“黑箱”印象。
- 推动负责任创新:在技术开发早期就嵌入伦理考量,并主动与公众沟通,管理预期。
- 加强协作治理:产业界需要与监管机构、学术界及公众更紧密地合作,共同建立稳健、前瞻的治理体系。
技术的进步速度与社会的信任建立速度出现了脱节。在AI日益融入日常生活的当下,弥合这一“信任鸿沟”已成为行业能否健康、可持续发展的关键。