SheepNav
精选今天0 投票

《下载》:内尼安德特人的坏消息,以及AI战争中的人类幻觉

内尼安德特人理论的挑战:基因研究的新视角

长期以来,许多人都相信我们体内可能藏有“内尼安德特人”——这一理论源于智人与尼安德特人曾杂交的假说,导致现代人携带少量尼安德特人DNA。这被视为21世纪人类进化领域最引人注目的发现之一。然而,2024年,一对法国遗传学家对这一理论的基础提出了质疑。他们提出,科学家所解释的杂交现象,可能实际上源于人口结构的影响,即基因在较小、隔离的群体中集中分布。这一新观点挑战了我们对人类进化历程的传统理解,暗示尼安德特人DNA的痕迹或许并非直接杂交的结果,而是早期人类群体分化和迁移的副产品。

这一发现不仅动摇了进化生物学的一个流行叙事,也提醒我们科学认知的不断演进。它强调了在解读复杂遗传数据时,考虑人口动态和统计偏差的重要性。对于普通读者而言,这意味着我们与远古祖先的联系可能比想象中更间接,但科学探索本身的价值在于持续质疑和修正。

AI战争中的“人类在环”幻觉:为何监督机制可能失效

随着AI技术日益渗透真实战争场景——从五角大楼与Anthropic的法律纠纷,到在伊朗冲突中的角色扩大——关于人类应如何保持“在环”(即在决策循环中)的讨论愈发紧迫。根据五角大楼的指导方针,人类监督旨在提供问责制、情境理解和安全保障。然而,现实是,“人类在环”这一概念可能只是一种令人安心的幻觉。真正的危险并非机器会在没有监督的情况下行动,而是人类监督者往往无法理解机器内部的“思考”过程。

AI系统,尤其是基于深度学习的模型,常以“黑箱”方式运作,其决策逻辑难以追溯。在高速、高压的军事环境中,人类操作员可能盲目依赖AI输出,而无法有效干预或纠正错误。这引发了严重的伦理和安全问题:如果人类无法真正掌控AI,所谓的监督就形同虚设。

幸运的是,科学或许提供了前进的路径。研究人员正在探索新的保障措施,如可解释AI(XAI)和强化人机协作协议,以增强透明度和控制力。但这需要全球政策制定者、技术开发者和军事机构的共同努力,以避免AI在战争中沦为不可预测的工具。

其他科技要闻速览

  • Anthropic模型争议:尽管被白宫列入黑名单,特朗普政府官员仍在谈判获取其新模型Mythos的访问权。Anthropic曾以安全风险为由拒绝公开发布该模型,而财政部长们对其安全隐患表示担忧。与此同时,Anthropic推出了风险较低的替代模型,但五角大楼对其发起了文化战争式的攻击。
  • Sam Altman的利益冲突:OpenAI首席执行官Sam Altman的不透明投资引发利益冲突关切,可能影响公司决策。陪审团即将裁定OpenAI是否背离其创始使命,而该公司正大力进军科学领域。

这些事件凸显了AI行业在快速发展中面临的监管、伦理和竞争挑战。从基因研究的修正到战争AI的失控风险,科技前沿始终交织着希望与警示。

延伸阅读

  1. MIT招生博客:2026年π日背后的30个派与美食研究所
  2. 机器人如何学习:一段简短的当代史
  3. 《修复一切的理由》:科技传奇斯图尔特·布兰德新书探讨“维护”的文明意义
查看原文