SheepNav

AI 资讯

每日聚合最新人工智能动态

近期,一则关于 **Windows 12** 将于 **2026 年** 发布的消息在科技圈引发热议,但很快被证实为误报。资深编辑 Ed Bott 在 ZDNET 的评论文章中,基于微软当前的战略动向,分析了 Windows 操作系统的未来走向,并预测了更可能的发布时间点。 ### 谣言始末与澄清 上周,德国科技媒体 **PC-Welt** 发布报道称,微软计划在 **2026 年** 推出下一代操作系统 Windows 12。这则消息经 **PCWorld** 转载后,迅速在 Reddit 等平台发酵,获得了近 **1.8 万** 次点赞和 **7000 条** 评论,显示出用户对 Windows 更新的高度关注。然而,几小时后,PCWorld 执行编辑 Brad Chacos 紧急发布道歉和撤回声明,承认该报道“不符合 PCWorld 的标准,本不应发布”。 Ed Bott 指出,这则谣言之所以传播迅速,部分源于用户对 **Windows 11** 的普遍不满。自 **2021 年** 发布以来,Windows 11 因系统要求严格、界面改动争议、性能问题等备受批评。微软 Windows 部门负责人 Pavan Davuluri 今年早些时候公开道歉,承诺将重点解决客户反馈的“痛点”,包括提升系统性能、可靠性和整体体验。 ### 微软的当前战略与发布时间预测 目前,微软正专注于 **Windows 11** 的更新和支持。根据微软最新财报,Windows 11 拥有 **10 亿** 活跃用户,且 **Windows 10** 已于 **2025 年 10 月** 结束官方支持,使 Windows 11 成为市场上唯一的旗舰版本。微软已宣布,今年晚些时候将发布 **Windows 11 版本 26H2** 功能更新,同时,为适配新的 **Qualcomm Snapdragon X2** 处理器,还将推出 **版本 26H1**。 Ed Bott 分析,从微软传统的 **10 年支持生命周期** 来看,Windows 11 将于 **2026 年 10 月** 迎来五周年,这通常是支持周期的中点。因此,下一代操作系统(暂称 Windows 12)更可能在此之后发布,而非 2026 年。他预测,微软可能会在 **2027 年或更晚** 推出新版本,以给予 Windows 11 足够的改进时间,并避免过早迭代引发用户反感。 ### 对 AI 行业与用户的启示 这一事件反映了 **AI 驱动时代** 下操作系统的演变趋势: - **用户期望管理**:在 AI 技术快速迭代的背景下,用户对系统更新更敏感,微软需平衡创新与稳定性,避免重蹈 Windows 11 的覆辙。 - **战略聚焦**:微软当前将资源集中于优化 Windows 11,而非急于推出新版本,这符合行业向 **AI 集成** 和 **性能提升** 转型的大方向。例如,Snapdragon X2 处理器的支持暗示了微软在 **ARM 架构** 和 **AI 硬件** 上的布局。 - **信息验证重要性**:科技资讯的传播速度极快,但误报可能误导用户和开发者。从业者应依赖官方渠道,如微软的公告和财报,而非未经证实的传言。 ### 小结 尽管 Windows 12 的谣言已破灭,但用户对 Windows 11 的不满情绪是真实的。微软正通过道歉和承诺改进来应对,而下一代操作系统的发布可能比预期更晚。在 AI 技术重塑软件生态的今天,操作系统的更新不再仅仅是功能添加,更关乎 **用户体验**、**硬件适配** 和 **战略耐心**。对于中文读者,关注微软官方动态和行业分析,将有助于更准确地把握技术趋势。

ZDNet AI17天前原文

## 亚马逊或重启智能手机项目,Fire Phone能否摆脱昔日阴影? 据路透社报道,亚马逊正在内部开发一款代号为“Transformer”的新智能手机,这距离其上一款手机——2014年发布的Fire Phone——已过去十余年。当年Fire Phone因销量惨淡,上市仅一年便大幅降价清仓,成为科技史上一次著名的失败尝试。如今,在苹果、三星、谷歌等巨头主导的智能手机市场,亚马逊若想卷土重来,必须直面一个关键问题:**应用生态的短板**。 ### Fire Phone为何失败? Fire Phone的失败并非偶然。2014年,亚马逊试图打造一个基于自家Fire OS的封闭生态,**拒绝接入Google Play服务**,转而依赖自家的Amazon AppStore。这一决策在当时就被视为冒险之举,因为Google服务(如Gmail、Google Maps、YouTube等)已成为全球数亿用户日常生活的一部分。缺乏这些核心应用的支持,Fire Phone在用户体验上先天不足。 更糟糕的是,Amazon AppStore本身内容匮乏。根据过往评测,该商店长期处于“半荒废”状态:许多主流应用要么缺失,要么版本老旧,更新滞后数年。仅有少数类别(如微软支持的办公软件和流媒体应用)保持更新,但这对于一部需要全方位功能的智能手机来说远远不够。用户购买手机不只是为了硬件,更是为了整个应用生态系统——Fire Phone恰恰在这方面栽了跟头。 ### 2026年的市场挑战与机遇 如今智能手机市场竞争更加激烈。美国市场主要由苹果、三星、谷歌、摩托罗拉和一加五大品牌主导,而昔日玩家如Windows Phone和黑莓已退出舞台。这意味着亚马逊若推出新机,将直接面对这些成熟对手的挤压。 但机会依然存在。亚马逊在硬件领域已有多年积累,从Echo智能音箱到Fire平板,其物联网和内容服务整合能力不容小觑。此外,AI和语音助手(如Alexa)的普及,可能为手机带来差异化功能。关键在于,亚马逊能否吸取教训,**不再重蹈应用生态覆辙**。 ### 新机的关键:能否拥抱开放生态? 如果“Transformer”真的问世,亚马逊至少有两种策略可选: - **坚持封闭路线**:继续使用Fire OS和Amazon AppStore,但必须大幅改善应用数量和质量,甚至可能通过预装或深度定制来弥补Google服务的缺失。 - **转向开放合作**:考虑兼容Google Play服务,或至少确保主流应用(如社交媒体、银行、通讯工具)能顺畅运行。这或许会削弱亚马逊对生态的控制力,但能极大提升用户接受度。 从用户角度出发,一部手机若无法流畅使用日常所需应用,即便价格低廉或硬件出色,也很难成为主流选择。亚马逊需要明白:在2026年,**应用体验已与硬件性能同等重要**。 ### 小结:谨慎乐观,但前路崎岖 亚马逊重返手机市场并非不可能,但必须解决Fire Phone遗留的核心问题。应用生态的短板曾是“致命伤”,如今依然是最大挑战。如果亚马逊能调整策略,结合其在AI、电商和内容服务上的优势,或许能在细分市场找到一席之地。否则,“Transformer”很可能重演Fire Phone的悲剧——成为又一款被应用商店拖垮的设备。 科技行业从不缺少卷土重来的故事,但成功者往往是那些真正倾听用户需求、敢于修正错误的企业。亚马逊这次能否做到?我们拭目以待。

ZDNet AI17天前原文

## 别再使用出厂设置了:7个ChatGPT隐藏功能解锁指南 ChatGPT自2022年推出以来,已经从一个简单的对话界面演变为功能丰富的AI聊天应用。大多数用户只关注模型能力的提升,却忽略了界面设置中隐藏的实用功能。资深编辑David Gewirtz分享了7个默认关闭的关键设置,这些调整能将ChatGPT从基础工具升级为专业助手。 ### 为什么需要调整默认设置? OpenAI在推出新功能时,往往采用保守的默认设置——要么是为了简化用户体验,要么是出于隐私或性能考虑。这意味着许多增强功能需要用户主动开启。通过调整这些设置,你可以: - **提升日常使用效率**:外观和响应风格的微调能让长时间使用更舒适 - **加强隐私控制**:记忆和历史记录管理功能让你更好地掌控数据 - **个性化体验**:广告偏好和界面定制让工具更贴合你的工作习惯 ### 7个值得开启的关键设置 **1. 自定义外观模式** 在“设置→通用”中,你可以选择深色、浅色或跟随系统模式。对于长时间使用ChatGPT的用户,合适的主题能显著减轻视觉疲劳。深色模式在低光环境下尤其友好,而系统跟随模式则能保持设备界面的一致性。 **2. 响应风格调整** 虽然文章未详细说明具体选项,但ChatGPT允许用户调整回答的语气、长度和格式。开启这些设置后,你可以让AI的输出更符合你的需求——无论是简洁的要点列表,还是详细的解释说明。 **3. 广告个性化控制(免费版和Go版专属)** 免费用户和ChatGPT Go订阅者现在可以限制广告个性化。这意味着你可以减少基于对话内容的定向广告,这在处理敏感或专业话题时尤为重要。 **4. 记忆功能管理** ChatGPT的记忆功能允许AI记住跨对话的信息,但默认可能未完全启用或限制较多。通过调整相关设置,你可以: - 控制AI记住哪些信息 - 清除特定记忆 - 设置记忆保留期限 这对于需要连续讨论复杂项目的用户来说是个游戏规则改变者。 **5. 聊天历史优化** 历史记录设置不仅影响隐私,还关系到上下文质量。你可以: - 选择性地保存或删除对话 - 调整历史记录在模型上下文中的权重 - 管理本地与云端存储 合理配置这些选项能让ChatGPT在长期对话中保持更好的连贯性。 **6. 平台特定功能** 桌面版(特别是Chrome)、独立应用和移动版各有不同的设置选项。例如,桌面版可能有更丰富的快捷键配置,而移动版则侧重触控优化。建议检查你常用平台的所有设置标签页。 **7. 计划层级差异** 值得注意的是,某些功能仅限特定订阅层级: - **免费版和Go版**:主要获得基础定制和广告控制 - **Plus版及以上**:通常有更高级的记忆管理、响应微调和优先功能访问权 ### 如何访问这些设置? 在ChatGPT界面左下角点击你的账户名称,会出现“个性化”和“设置”两个菜单项——它们实际上指向同一个设置面板,只是默认打开的标签页不同:“设置”打开通用标签,“个性化”打开个性化标签。这种设计可能反映了OpenAI团队与机器对话多于与人对话的产品思维,但对用户来说确实有些冗余。 ### 为什么这些设置默认关闭? **隐私与合规考量**:像记忆和历史记录这类涉及数据存储的功能,默认限制较多是为了符合全球隐私法规(如GDPR)。 **用户体验简化**:过多的选项可能让新用户感到困惑,因此OpenAI选择逐步推出功能,让高级用户自行探索。 **性能优化**:某些增强功能可能增加服务器负载或响应时间,默认关闭可以保证基础服务的稳定性。 ### 实践建议 1. **逐步开启**:不要一次性打开所有设置,而是根据实际需求逐个尝试。 2. **平台检查**:如果你在多设备上使用ChatGPT,记得分别检查每个客户端的设置。 3. **订阅层级评估**:如果你发现需要的功能仅限于Plus版,可以考虑升级——特别是如果你每天重度依赖ChatGPT进行工作。 4. **定期回顾**:OpenAI会持续更新设置选项,建议每季度检查一次是否有新功能出现。 ### 行业背景:AI工具正在从“模型竞赛”转向“体验竞赛” 早期AI竞争主要集中在模型能力(如GPT-4 vs Claude vs Gemini),但现在各大平台越来越重视用户体验的差异化。ChatGPT的这些设置调整正是这一趋势的体现:通过可定制化界面、隐私控制和个性化功能,OpenAI试图在功能雷同的市场中建立粘性。 与此同时,开源和本地化AI工具(如文章中提到的Claude Code替代品)也在崛起,它们通常提供更彻底的控制权。ChatGPT的设置优化可以看作是对这种竞争的部分回应——在保持云端便利性的同时,给予用户更多掌控感。 ### 小结 ChatGPT的默认设置只是起点,而非终点。花15分钟探索这些隐藏选项,可能会让你的AI助手效率提升30%以上。在AI工具日益普及的今天,真正的“专业用户”不仅是会提问的人,更是会配置工具的人。 **关键提醒**:本文基于ZDNET资深编辑的实际使用经验,但请注意ZDNET母公司Ziff Davis在2025年4月曾起诉OpenAI侵犯版权——这可能会影响报道的完全中立性,不过设置功能本身是客观存在的。

ZDNet AI17天前原文

近日,出版巨头哈珀柯林斯出版集团宣布,将不会出版恐怖小说《害羞女孩》,原因是担心该书的文本是由人工智能生成的。这一决定在出版界和读者中引发了广泛讨论,凸显了AI技术在创意产业中日益增长的争议。 ## 事件背景 《害羞女孩》原计划于今年春季在美国出版,并在英国已有售。哈珀柯林斯表示,在进行了“彻底的文本审查”后,决定撤回该书。尽管出版社未公开具体审查细节,但GoodReads和YouTube上的评论者早已猜测该书可能是AI生成的。《纽约时报》在公告前一天就此事询问了哈珀柯林斯,显示了外界对此事的关注。 ## 作者回应与争议 作者米娅·巴拉德在给《纽约时报》的电子邮件中否认使用AI写作,而是指责她雇佣的一位熟人编辑了原版自出版的《害羞女孩》。巴拉德声称正在采取法律行动,并表示这场争议导致“我的心理健康处于历史最低点,我的名声因我未亲自做的事情而毁于一旦”。 ## 行业观察与影响 作家林肯·米歇尔和其他行业观察者指出,美国出版商在收购已以其他形式出版的作品时,很少进行大量编辑。这暗示了出版流程中可能存在的漏洞,使得AI生成内容更容易混入传统出版渠道。 ## AI在出版业的挑战 随着AI文本生成技术的普及,出版业面临新的伦理和版权挑战。一方面,AI工具能辅助创作,提高效率;另一方面,未经披露的AI生成内容可能侵犯原创性,引发读者信任危机。哈珀柯林斯的撤回决定反映了出版社对维护内容质量和行业声誉的谨慎态度。 ## 未来展望 这一事件可能促使出版业加强内容审核机制,制定更明确的AI使用指南。对于作者而言,透明披露创作工具将成为重要考量。同时,读者对AI生成内容的接受度也将影响市场趋势。 **小结**:哈珀柯林斯撤回《害羞女孩》的事件,不仅是单个作品的争议,更是AI时代出版业转型的一个缩影。它提醒我们,在拥抱技术创新的同时,必须平衡创意、伦理和商业利益,以确保行业的可持续发展。

TechCrunch17天前原文

本周,一篇匿名Substack文章对Y Combinator支持的合规初创公司Delve提出了严重指控,称其通过“伪造证据”和“跳过主要框架要求”等方式,让数百名客户误以为自己在隐私和安全法规方面已完全合规。这可能导致客户面临HIPAA下的刑事责任和GDPR下的巨额罚款。 ## 指控的核心内容 匿名作者“DeepDelver”自称曾在一家(现已终止合作的)Delve客户公司工作。文章详细描述了Delve如何通过以下手段实现其“最快合规平台”的宣称: - **伪造证据**:为客户提供从未发生过的董事会会议、测试和流程的“虚假证据” - **代签报告**:代表认证机构生成审计结论,而这些机构被描述为“橡皮图章工厂” - **跳过要求**:在告知客户已实现“100%合规”的同时,跳过了主要框架的关键要求 DeepDelver写道,客户最终面临两难选择:要么接受这些虚假证据,要么在几乎没有真正自动化或AI支持的情况下,手动完成大部分工作。 ## Delve的回应与背景 Delve是一家由**Insight Partners领投**的初创公司,去年宣布完成**3200万美元的A轮融资**,估值达到**3亿美元**。面对指控,该公司于周五在其博客上试图反驳,称Substack文章“具有误导性”并“包含多项不准确声明”。 然而,指控的细节相当具体。DeepDelver提到,他们在12月收到一封电子邮件,称Delve“泄露了一份包含机密客户报告的电子表格”。尽管Delve CEO Karun Kaushik在后续邮件中向客户保证他们仍处于合规状态,且敏感数据未被外部访问,但DeepDelver和其他客户已产生怀疑。 ## 行业背景与潜在影响 在AI驱动的合规自动化领域,Delve的案例凸显了一个关键问题:当技术承诺超越实际能力时,风险如何被转移给客户。合规不是可选项,而是法律义务;误判合规状态可能导致严重后果,包括**HIPAA下的刑事责任**和**GDPR下的巨额罚款**。 对于初创公司而言,融资规模和估值光环有时会掩盖产品成熟度的不足。Delve的案例提醒投资者和客户:在评估合规解决方案时,透明度和验证机制同样重要。 ## 不确定性因素 目前,双方说法存在明显冲突。Delve否认了指控,但未提供具体反驳细节;匿名指控则缺乏可验证的独立证据。TechCrunch作为报道方,尚未进行独立调查,因此事件真相仍有待进一步澄清。 ## 小结 无论最终结果如何,此事件已对Delve的声誉构成冲击,并引发了对AI合规工具可信度的更广泛讨论。在法规日益严格的今天,客户需要更谨慎地选择合作伙伴,而初创公司则需在增长压力与合规诚信之间找到平衡。

TechCrunch17天前原文
视频星期五:人形机器人通过与人类对战学习网球技能

在最新一期的“视频星期五”中,IEEE Spectrum 展示了人形机器人通过与人类对手实战学习网球技能的突破性进展。这一进展不仅体现了机器人技术的快速迭代,更揭示了AI在复杂物理交互任务中的巨大潜力。 ## 人形机器人如何学习网球? 视频中的人形机器人并非通过预先编程的固定动作来打网球,而是**通过与人类对手的实时对战进行学习**。这意味着机器人需要实时感知球的速度、轨迹、旋转,并快速决策如何移动、挥拍,同时保持身体平衡。这种学习方式更接近人类的学习过程,依赖于**实时感知、决策和执行**的闭环。 ## 技术背后的AI驱动力 这一进展的核心在于**AI算法**的进步,特别是强化学习和模仿学习在机器人控制中的应用。机器人可能通过以下方式学习: - **模仿学习**:观察人类对手的动作,学习基本的挥拍和移动模式。 - **强化学习**:在实际对战中通过试错优化动作,以击中球或赢得分数为目标。 - **多模态感知**:结合视觉传感器(如摄像头)和本体传感器(如关节编码器、IMU)来理解环境状态。 这种学习方式要求AI模型具备**高维状态空间处理能力**和**实时决策能力**,是当前机器人AI研究的热点。 ## 行业意义与挑战 人形机器人学习网球技能看似娱乐,实则具有深远的行业意义: - **推动通用机器人发展**:网球是一项需要全身协调、快速反应和策略思考的复杂任务,成功实现表明机器人在**非结构化环境**中的适应能力提升。 - **加速AI与机器人融合**:这类应用展示了AI如何赋能机器人执行动态任务,为服务机器人、工业自动化等领域提供新思路。 - **面临挑战**:包括硬件稳定性(如关节精度、续航)、学习效率(减少训练时间)和安全问题(避免与人类碰撞)。 ## 未来展望 随着AI技术的持续突破,人形机器人在体育、康复训练、娱乐等场景的应用将更加广泛。但商业化落地仍需克服成本、可靠性和伦理等障碍。IEEE Spectrum 的“视频星期五”系列持续追踪这类前沿进展,为AI和机器人爱好者提供灵感。 > 注:本文基于IEEE Spectrum的报道摘要撰写,具体技术细节和实验数据请参考原始来源。

IEEE AI17天前原文

本周一,英伟达CEO黄仁勋在年度GTC大会上发表了长达2.5小时的演讲,展示了从游戏图形技术、网络基础设施到自动驾驶合作等一系列最新创新,并抛出了惊人的市场预测——AI代理生态系统价值35万亿美元,物理AI与机器人产业价值50万亿美元,公司Blackwell和Vera Rubin芯片到2027年底预计将获得1万亿美元的订单。然而,就在黄仁勋登台演讲之际,这家市值4万亿美元的公司的股价却开始下跌。 **华尔街的谨慎与硅谷的狂热形成鲜明对比**。在硅谷,AI领域的信心高涨,不确定性似乎被抛在脑后;而在华尔街,投资者更关注AI未来的不确定性以及对泡沫的担忧。这种分歧揭示了当前AI热潮中一个关键矛盾:技术突破的速度之快,反而催生了“巨大的新不确定性”。 Futurum CEO Daniel Neuman向TechCrunch指出:“市场讨厌不确定性。”AI技术如此强大、如此具有变革性,且发展如此迅速,以至于我们实际上并不完全理解它将对社会结构产生何种影响。这种不确定性部分源于市场信息的误导——例如,关于企业AI采用率低的头条新闻可能并未反映全貌。 **英伟达的宏伟蓝图与投资者的现实考量**。黄仁勋在演讲中强调的不仅是技术细节,更是对整个AI生态系统的长期愿景。然而,华尔街似乎更关注短期风险:AI投资是否过热?技术落地是否跟得上预期?企业实际部署的进度如何?这些问题在股价波动中得到了体现。 **行业背景下的深层思考**。当前AI领域正处于一个关键转折点:一方面,像英伟达这样的巨头不断推出突破性产品,推动技术边界;另一方面,市场开始质疑这些创新能否迅速转化为可持续的商业价值。这种“技术乐观”与“市场谨慎”的拉锯战,可能预示着AI产业正从狂热期进入更理性的评估阶段。 **未来展望**。尽管华尔街暂时持保留态度,但英伟达的GTC大会依然凸显了其在AI硬件领域的领导地位。随着AI技术逐步渗透到各行各业,投资者或许需要更多时间来判断这些宏大预测的实际可行性。而对于整个AI行业来说,如何在创新加速与风险控制之间找到平衡,将是下一阶段的重要课题。

TechCrunch17天前原文

## 告别解锁烦恼:Joonote 让笔记触手可及 你是否曾为查看或记录一条简单的笔记而不得不解锁手机、寻找应用而感到烦躁?尤其是在购物时核对清单,或是需要快速记录灵感时,这种繁琐的操作往往打断思路。现在,一款名为 **Joonote** 的 Android 应用试图彻底改变这一体验——它将笔记功能直接集成到锁屏和通知面板中,让你无需解锁屏幕即可快速操作。 ### 核心功能:极速笔记体验 Joonote 的核心设计理念是 **“无缝记录”**。开发者基于自身多年痛点,从去年六月开始用 Kotlin 开发这款原生应用,旨在提供最快捷的笔记查看与编辑方式。其主要功能包括: - **锁屏直接操作**:在锁屏界面添加、查看、编辑和删除笔记,无需解锁进入应用。 - **隐私保护**:可设置私密笔记,隐藏在锁屏后,确保信息安全。 - **清单管理**:支持创建购物清单、烹饪步骤、待办事项等,并可勾选完成。 - **提醒设置**:为重要笔记添加特定或重复的日期时间提醒。 - **语音转文字**:即时将语音转录为文本笔记。 - **自定义标签**:用彩色标签组织笔记,提升查找效率。 - **桌面小部件**:在主屏幕添加小部件,快速访问笔记和提醒。 - **离线可用**:所有笔记存储在本地设备,无需网络即可访问。 - **备份恢复**:自动备份到 Google Drive,方便换机或重装后恢复数据。 ### 为什么这很重要? 在 AI 和移动应用高度发展的今天,效率工具正朝着 **“减少交互步骤”** 的方向演进。Joonote 直击传统笔记应用的痛点:每次记录都需要多次点击和等待,这不仅浪费时间,还可能分散注意力。通过将功能前置到锁屏,它让用户 **“保持流程”**,避免因切换应用而中断当前任务。 从行业背景看,类似“快速记录”需求正催生更多轻量级工具,如语音助手集成、便签小部件等,但 Joonote 的锁屏集成方案更具创新性,尤其适合移动场景下的碎片化记录。 ### 用户反馈与市场定位 早期用户反馈积极,称赞其 **“简单易用”**,没有花哨功能,完美满足快速记录需求。有用户对比称,它比同类应用如 Notin 更优。应用目前提供 **30 天免费试用**,无需信用卡或注册,之后可一次性支付 **9.99 美元** 升级为永久 Pro 版。 不过,Joonote 目前 **仅支持 Android**,通过 Play Store 下载,这限制了 iOS 用户的使用。开发者未来是否扩展平台,值得关注。 ### 小结:效率工具的新思路 Joonote 不仅是一个笔记应用,更是对移动交互效率的一次探索。在 AI 助理日益普及的当下,它提供了另一种快速记录路径——无需唤醒语音,直接视觉操作。对于常需快速记事的用户来说,这或许能成为提升日常效率的得力助手。 **下载方式**:扫描二维码或在 Play Store 搜索“Joonote”免费试用。

Hacker News5417天前原文

当OpenAI在2024年首次向公众发布其文本到视频生成式AI模型Sora时,导演瓦莱丽·维奇(Valerie Veatch)和许多人一样,被这项技术所吸引。尽管她并不完全理解其背后的原理,但她对它能做什么感到好奇,并看到其他艺术家正在建立在线社区来分享他们的新AI创作。 然而,维奇很快发现,这项技术常常在没有明确提示的情况下,生成充满种族主义和性别歧视的图像。更令她不安的是,她周围那些AI爱好者似乎对此毫不在意。这种怪异的状况不仅让她远离了早期的生成式AI实验,更促使她拍摄了纪录片《机器中的幽灵》(Ghost in the Machine)。 ## 从好奇到警惕:一位导演的AI觉醒 维奇最初被生成式AI吸引,是希望借此与创意社群连接。但当她深入其中,看到的却是技术不加掩饰地输出偏见内容。她指出,许多AI爱好者对这种现象视而不见,甚至将其合理化,这让她感到震惊。这种“集体盲视”促使她追问:为什么AI会这样工作?它的根源是什么? ## 揭开“人工智能”的营销面纱 在与记者的视频通话中,维奇直言不讳地批评了行业对“人工智能”这一概念的刻意模糊化。她说:“为了使用‘人工智能’这个词,我们必须知道这他妈到底是什么意思。事实是,它没有任何意义;它一直是一个营销术语,完全具有误导性。” 她认为,这种模糊性让公众难以理解技术的本质,也掩盖了其背后可能存在的伦理问题。 ## 追溯历史:种族科学与AI的隐秘联系 《机器中的幽灵》没有聚焦于生成式AI加速主义者所鼓吹的、遥不可及的社会效益,而是深入挖掘了这项技术的历史根源,试图解释它为何以当前的方式运作。 影片揭示了一个关键论点:**现代生成式AI的发展,其思想基础部分植根于历史上的种族科学(race science)和优生学(eugenics)思潮**。这些思潮试图通过数据分类、优化和筛选来定义“理想”的人类特质,而今天的AI系统,在数据训练、模式识别乃至内容生成上,都不自觉地继承了类似的逻辑框架——尽管表现形式更为隐蔽和技术化。 ## 行业炒作与公众认知的脱节 维奇希望通过这部纪录片,记录生成式AI的起源,让人们对当前所处的“行业炒作狂热周期”有一个清晰的认识。她指出,在技术光环和营销话术的包裹下,公众往往只看到AI的“创造力”,却忽略了其训练数据中可能固化并放大的社会偏见,以及背后可能存在的危险思想遗产。 ## 启示:我们需要怎样的AI对话? 维奇的探索提醒我们,对生成式AI的讨论不能仅停留在“它能做什么”的功能层面,更需要深入“它为什么这样做”的历史与伦理层面。当技术以“智能”和“创新”之名快速推进时,批判性地审视其思想源流、数据构成和输出影响,变得尤为重要。 **《机器中的幽灵》的价值,或许就在于它撕开了技术中立的神话,迫使观众面对一个 uncomfortable truth:我们正在饮用的生成式AI“迷魂汤”,其配方中可能混合着一些我们不愿承认的历史毒素。** 要真正负责任地发展AI,或许首先需要诚实面对它的全部过去。

The Verge17天前原文

## Gemini任务自动化初体验:缓慢却震撼的AI助手革命 作为资深科技评测编辑,我在Pixel 10 Pro和Galaxy S26 Ultra上测试了Google Gemini的全新任务自动化功能。这是首次有AI助手能够真正“接管”手机,代替用户操作应用程序。虽然目前仅支持少数外卖和网约车服务,且仍处于测试阶段,但这次体验让我确信:我们正在见证AI助手的未来雏形。 ### 缓慢但专注的“数字管家” 测试中最直观的感受是**速度问题**。让Gemini通过外卖应用点一份晚餐,整个过程耗时九分钟——如果用户自己操作,可能只需要两分钟。这种缓慢源于AI需要逐步理解界面元素、做出判断并执行操作,就像一个新员工在学习使用陌生软件。 但关键在于,Gemini的设计初衷并非与人类比拼速度。它的核心价值在于**后台自动化**:当你在手机上处理其他事务,甚至完全离开手机时,Gemini可以继续完成任务。想象一下,在赶飞机前反复检查护照的间隙,让AI帮你叫车或订餐——这种“并行处理”能力才是其真正优势。 ### 令人惊叹的“现场推理”能力 最让我印象深刻的是Gemini的**实时问题解决能力**。在一次点餐测试中,我要求订购“鸡肉套餐”,但菜单显示的是“半份”选项。Gemini没有僵住或出错,而是自动推理出“两个半份等于一份”,并正确完成了选择。屏幕上实时显示的文字提示——“正在为套餐选择第二份照烧鸡肉”——让整个过程透明可见。 这种动态适应能力,超越了简单的脚本执行。它表明Gemini正在学习**理解界面逻辑**,而不仅仅是机械点击。当然,它仍有局限:当屏幕中央明显显示“蔬菜配菜”选项时,Gemini反而需要更多时间寻找——这说明视觉识别和上下文理解仍是挑战。 ### 当前局限与未来潜力 必须承认,目前的Gemini任务自动化**尚未解决任何紧迫的痛点**。对于急需叫车或快速点餐的用户,手动操作仍是更优选择。支持的应用程序也极为有限,仅涵盖少数服务商。 但这次测试的意义在于**验证了技术可行性**。这是首次在真实手机环境(而非发布会演示或受控场景)中,看到AI助手真正“使用”应用程序。虽然缓慢笨拙,但它确实在工作——这种“真实感”比任何宣传视频都更有说服力。 ### AI助手进化的关键一步 从行业角度看,Gemini的尝试标志着**AI交互范式的转变**。传统语音助手(如Siri、Google Assistant)主要处理信息查询和简单指令,而Gemini开始涉足**跨应用任务流**。这需要更复杂的多模态理解(结合视觉、文本和操作逻辑),也是通向“通用人工智能助手”的必经之路。 Google选择从外卖、出行等高频但相对结构化的场景切入,是明智的务实策略。这些场景的界面相对规范,任务目标明确,降低了初期试错的复杂度。随着模型迭代和数据积累,未来有望扩展至更复杂的领域(如旅行规划、账单管理)。 ### 写在最后:缓慢起步,未来可期 测试结束时,我最大的感受是:**这确实只是开始**。Gemini任务自动化目前更像一个“技术演示”,而非成熟产品。它的速度、准确性和适用范围都需大幅提升。 但正如第一代iPhone的触摸屏也曾被诟病“不如实体键盘”,革命性技术的早期版本往往如此。Gemini展示的,是AI从“回答问题”走向“执行任务”的可能性。当它不再需要九分钟点餐,而是能无缝处理日常琐事时,手机使用体验将被彻底重塑。 对于普通用户,现在或许不必急于尝试;但对于科技观察者,这次测试无疑是一次震撼的预告——**真正的AI助手时代,正在缓慢而坚定地走来**。

The Verge17天前原文
我体验了DoorDash的Tasks应用,看到了AI零工经济的黯淡未来

## 当AI训练成为零工:DoorDash Tasks应用的亲身体验 最近,我下载了DoorDash新推出的**Tasks应用**,并体验了其中一系列任务:录制自己洗衣服、炒鸡蛋、在公园散步的视频。这并非某种新型的社交媒体挑战,而是**DoorDash进军AI训练数据收集领域**的最新尝试。这款应用与送餐服务无关,其核心是**付费让零工工作者为生成式AI模型和人形机器人提供训练数据**。 ### 任务体验:从“移动物体”到“录制日常” 注册成为“Dasher”后,我的第一个入门任务是**拍摄自己将三个物体(咖啡杯、笔、笔记本电脑)从桌子一侧移到另一侧的视频**。完成这个简单任务后,DoorDash寄来了一个免费的智能手机身体支架,以便我进行更复杂的录制。随后,应用内展示了完整的任务列表,主要分为五大类: - **家务劳动**:如折叠衣物、洗衣服 - **手工项目**:涉及工具使用的简单维修任务 - **烹饪食物**:如打鸡蛋、准备食材 - **位置导航**:在特定地点(如公园)行走并录制环境 - **外语对话**:进行特定语言的对话练习 这些任务的核心要求是**将智能手机固定在胸前,清晰录制双手执行动作的过程**。DoorDash强调,这些视频数据将帮助“AI和机器人系统理解物理世界”,并根据任务的努力程度和复杂性预先显示报酬。 ### 数据背后的AI与机器人训练逻辑 为什么需要人类录制这些看似日常的视频?答案在于**计算机视觉和机器人学习**。例如,成千上万段人们清晰展示双手折叠衣物的视频,可以用于训练机器人通过视觉识别完成相同任务。这种**第一人称视角的物理交互数据**,对于开发能在真实世界中操作的AI模型至关重要——无论是生成式AI需要更准确地模拟人类动作,还是人形机器人学习抓取、操作物体。 DoorDash在新闻稿中表示,计划未来扩展这项服务,涵盖更广泛的任务和用户群体。然而,目前该应用在美国的可用范围有限:**加利福尼亚州、纽约市、西雅图和科罗拉多州的居民明确被禁止使用Tasks**(我本人在堪萨斯州成功使用并完成了任务)。 ### 零工经济的“新边疆”:机遇还是隐忧? Tasks应用的推出,标志着零工经济平台正**从服务交付转向数据生产**。对于工作者而言,这提供了新的灵活收入来源,尤其适合那些擅长通过视频展示技能的人。但这也引发了关于**数据隐私、报酬公平性和工作可持续性**的讨论: - **数据用途透明度**:虽然DoorDash说明数据用于AI训练,但具体模型、合作伙伴及长期数据管理政策未完全公开 - **地理限制的考量**:某些州/市的禁用可能源于当地零工经济法规或数据收集法律的差异 - **报酬机制**:基于“努力和复杂性”的定价是否合理,能否反映数据对AI训练的实际价值 ### 行业趋势:AI训练数据需求催生新市场 DoorDash Tasks并非孤例。随着**生成式AI和机器人技术的快速发展**,对高质量、多样化的训练数据需求激增。传统的数据标注工作已扩展至**物理世界交互模拟**,而零工平台凭借其庞大的用户基础和灵活任务分配能力,正成为数据收集的新渠道。这既可能为AI进步提供燃料,也可能重塑零工工作的性质——从送餐、打车转向“为机器当老师”。 ### 小结:当人类成为AI的“教练” 体验Tasks应用后,我看到的不仅是洗衣服或炒鸡蛋的简单录制,而是**AI时代数据收集方式的演变**。它揭示了零工经济如何适应技术需求,同时也提醒我们:在AI加速学习的背后,是无数人类日常动作的数字化。未来,这类平台是否能为工作者提供公平回报,同时确保数据使用的伦理边界,将是观察AI与零工经济交汇点的关键。

WIRED AI17天前原文
汽车酒精锁公司遭网络攻击,司机被困无法启动车辆

本周,美国执法部门成功捣毁了Aisuru、Kimwolf、JackSkid和Mossad四大僵尸网络,这些网络犯罪工具已感染全球超过300万台设备,并用于实施破纪录的网络攻击。与此同时,数亿部iPhone面临被俄罗斯黑客新工具DarkSword接管的风险,该工具被用于窃取受害者数据。 **汽车酒精锁公司遭攻击,司机被困** 想象一下向老板解释这个场景:你无法上班,不是因为喝了酒,而是因为法院强制安装的酒精锁因制造公司遭网络攻击而失效,导致车辆无法启动。 **Intoxalock**,一家汽车酒精锁制造商,声称其设备每天被美国15万名司机使用。本周,该公司在其网站上发布公告,称已成为网络攻击的目标,导致“系统目前处于停机状态”。使用这些酒精锁的司机报告称,他们被困在停车场或家中,无法启动车辆,即使他们完全清醒。 这一事件突显了物联网设备安全性的脆弱性,尤其是当这些设备与关键基础设施(如车辆)集成时。酒精锁通常安装在因酒驾被定罪的司机的车辆上,作为法院强制要求的一部分,以确保他们在驾驶前通过酒精测试。攻击导致设备无法正常运作,不仅影响个人出行,还可能引发法律和监管问题。 **其他安全与隐私新闻摘要** - **Sears Home Services AI聊天机器人数据泄露**:客户服务通话和与Sears Home Services AI机器人Samantha的聊天记录被暴露并公开可访问,直到一名研究人员报告此情况。泄露内容包含个人详细信息,在某些情况下,还包括客户认为通话结束后额外录制的数小时音频。 - **Telegram上的“AI人脸模型”招聘骗局**:WIRED审查了数十个Telegram频道,其中包含“AI人脸模型”的招聘列表。获得这些工作的人大多是女性,很可能被用作AI诈骗的面孔,以窃取受害者的钱财。 - **Meta取消Instagram私信端到端加密**:Meta最近宣布,将于5月8日取消Instagram Direct Messages的端到端加密保护,理由是采用率低。公司曾长期承诺将此保护作为Instagram聊天的默认设置,专家担心这种“诱饵转换”可能为科技行业树立危险先例。 - **Signal创始人合作Meta整合加密AI平台**:Signal创始人Moxie Marlinspike本周宣布,他将与科技巨头Meta合作,以某种形式将其加密AI平台Confer集成到Meta AI中。 **行业背景与深度分析** 网络攻击正日益针对关键服务和物联网设备,从酒精锁到家庭网络设备,显示出安全漏洞的广泛性。随着AI和自动化工具的普及,数据泄露和诈骗手段也变得更加复杂,例如利用“AI人脸模型”进行社交工程攻击。 Meta取消加密保护的决定引发隐私倡导者的担忧,可能削弱用户对科技公司数据保护承诺的信任。然而,与Signal的合作暗示行业在加密和AI整合方面寻求平衡,以增强安全性。 **小结** 本周的安全事件提醒我们,网络安全不仅是数字领域的挑战,已直接影响物理世界和日常生活。从司机被困到数据泄露,这些案例强调了加强设备安全、透明数据实践和行业协作的紧迫性。随着攻击手段进化,个人和企业需保持警惕,及时更新防护措施。

WIRED AI17天前原文
《陪审团任务呈现:公司团建》——让企业文化看起来几乎有趣

亚马逊Prime的恶搞系列《陪审团任务呈现:公司团建》第二季,延续了其独特的实验性纪录片喜剧风格,通过一个不知情的普通人Anthony Norman在虚构的“摇滚奶奶辣酱”公司团建中的经历,巧妙放大了职场动态的荒诞与温情。 ## 背景:当现实职场遇上虚构喜剧 这部作品是Prime Video《陪审团任务呈现》系列的第二季,第一季以模拟陪审团审判为主题,在TikTok上爆火并获得了三项艾美奖提名。本季则将镜头转向了职场环境,所有角色都是演员,除了主角Anthony Norman——一位25岁、有点迷茫、正在努力寻找全职工作的Z世代年轻人。 在当前高失业率、AI冲击就业市场、科技公司裁员潮(如亚马逊、Block、Meta等公司裁员高达20%)的背景下,Anthony获得“摇滚奶奶辣酱”这家南加州小公司的临时职位时,他以为只是一份普通的杂活和协助年度团建的工作。殊不知,他正踏入一个精心设计的喜剧舞台。 ## 剧情核心:家族企业传承与团队荒诞 故事设定在公司创始人Doug Womack准备退休,其子Dougie Jr.试图证明自己不是“辣酱界的布朗尼”(指靠关系上位的无能者)的关键时刻。公司团队前往洛杉矶西北部Agouria Hills的Oak Canyon Ranch进行团建,活动包括团队建设、客户烧烤、励志演讲和才艺比赛。 **办公室众生相**在团建中展现得淋漓尽致: - 会计兼波旁威士忌爱好者Helen Schaffer自称“做了26年假账” - 前台PJ Green梦想成为零食网红 - 采购经理Anthony Gwinn(因曾误认某成人用品为保温杯而被戏称为“另一个安东尼”) - 渴望逃离“Cocomelon”和三个孩子的分销物流代表Jackie Angela Griffin 这些角色共同构成了一个充满怪癖和自我的职场马戏团。 ## 深层主题:在不可能中找到目标与社群 尽管剧情充满恶搞和荒诞元素,但系列的核心在于展示人们如何在看似不可能的工作环境中寻找目标感和社群归属。Anthony的参与不仅是一场喜剧实验,更反映了年轻一代在动荡就业市场中的真实挣扎与适应。通过夸张的职场互动,作品揭示了现代企业文化中的人际关系、权力动态和个人身份认同问题。 ## 行业启示:娱乐内容如何映射AI时代职场焦虑 在AI技术快速发展、自动化威胁传统职位的当下,这类以职场为背景的娱乐内容提供了社会情绪的宣泄口。它用幽默方式探讨了就业不确定性、代际冲突(如家族企业传承)和职场人性化需求,呼应了现实世界中人们对工作意义和社区连接的渴望。 《公司团建》的成功在于其平衡了喜剧效果与情感深度,让观众在笑声中思考:在技术变革和裁员潮中,我们如何重新定义工作的价值与人际关系?

WIRED AI17天前原文

在特朗普总统和国防部长公开宣布与**Anthropic**“切断关系”一周前,五角大楼曾告诉这家AI公司双方立场“几乎达成一致”。这一关键信息来自Anthropic上周五向加州联邦法院提交的两份宣誓声明,该公司正就美国国防部指控其“对国家安全构成不可接受的风险”进行法律反击。 ## 争议核心:技术误解与未提出的指控 Anthropic在声明中强调,政府的诉讼依据存在**技术误解**,并且依赖一些在数月谈判中**从未实际提出过的指控**。公司政策主管Sarah Heck(前国家安全委员会官员)在宣誓书中指出,政府文件中的一个“核心虚假陈述”是声称Anthropic要求对军事行动拥有某种批准权。 Heck明确写道:“在与国防部的谈判过程中,我或任何其他Anthropic员工从未表示公司想要这种角色。”她还声称,五角大楼关于Anthropic可能在行动中禁用或更改其技术的担忧,在谈判期间**从未被提及**,而是首次出现在政府向法院提交的文件中,这使Anthropic没有回应的机会。 ## 谈判破裂的时间线 争议可追溯至2月下旬,当时特朗普总统和国防部长Pete Hegseth公开宣布,由于Anthropic拒绝允许军方无限制使用其AI技术,双方将切断关系。然而,新披露的法庭文件显示,就在特朗普宣布“关系结束”的一周前,五角大楼曾向Anthropic表示双方立场“几乎达成一致”。 这一时间线差异突显了政府内部沟通可能存在的不一致,或谈判最后阶段的突然转向。Anthropic的声明旨在反驳国防部关于公司构成国家安全风险的断言,并强调其技术合作提议始终基于**负责任AI部署**的原则。 ## 行业背景:AI公司与政府合作的敏感边界 此案反映了**生成式AI公司**与政府机构合作时面临的典型挑战:如何在商业利益、技术伦理和国家安全需求之间找到平衡。Anthropic作为专注于AI安全的公司,其立场可能代表了一批科技企业对于军事应用持谨慎态度的趋势。 - **技术控制权**:政府担心AI供应商可能在关键时刻中断服务,而公司则强调其技术设计初衷是可靠且可控的。 - **使用范围界定**:无限制军事使用与有限制合作之间的分歧,触及了AI伦理的核心争议。 - **谈判透明度**:双方对谈判内容的表述差异,可能影响未来类似合作的信任基础。 ## 即将到来的关键听证会 Anthropic的声明和回复简报已提交,为3月24日(周二)在旧金山法官Rita Lin面前的听证会做准备。这次听证会的结果可能不仅影响Anthropic与国防部的合作关系,还会为其他AI公司参与政府项目设立先例。 如果法院支持国防部的“国家安全风险”主张,可能会鼓励更多限制性政策出台;反之,若Anthropic成功反驳技术误解的指控,则可能强化企业在谈判中的话语权。 ## 小结 这场法律纠纷远不止于合同争议,它揭示了**AI技术政治化**的复杂现实。当国家安全话语遇上快速演进的生成式AI能力,商业谈判极易升级为公开对抗。Anthropic的法庭反击不仅是为自身辩护,也是在为整个行业探索与政府合作的合理边界。随着听证会临近,此案的走向值得所有关注AI治理与军事应用交叉领域的人士密切留意。

TechCrunch18天前原文

## 为什么 iPhone 会变慢?缓存积累是隐形杀手 如果你的 iPhone 感觉越来越卡顿,反应迟钝,或者存储空间频频告急,很可能不是手机硬件老化,而是**缓存数据**在暗中作祟。作为资深科技编辑,我深知日常使用中,Safari、Chrome 等浏览器以及各类应用都会在后台默默存储临时文件,这些缓存本意是加速加载,但日积月累却会成为拖慢系统、占用宝贵空间的“数字垃圾”。 ## 缓存如何影响 iPhone 性能? 缓存数据主要包括网页历史、图片、脚本文件等,它们被存储在本地以便下次快速访问。然而,当缓存过多时: - **占用存储空间**:大量缓存文件挤占本可用于应用、照片的存储,导致系统运行缓慢。 - **降低运行效率**:过时的缓存可能与应用更新冲突,引发卡顿或崩溃。 - **影响稳定性**:隐藏的缓存文件可能干扰系统进程,重启 iPhone 常能清除这些“幽灵文件”并提升稳定性。 ## 如何有效清理 iPhone 缓存? 定期清理缓存是保持 iPhone 流畅的关键。以下是一些实用方法: ### 1. 清理 Safari 缓存 - 进入“设置” > “Safari” > “清除历史记录与网站数据”。 - 这会删除浏览历史、Cookie 和其他缓存,但不会影响已保存的密码或书签。 ### 2. 清理 Chrome 或其他浏览器缓存 - 在 Chrome 应用中,点击右下角“...” > “历史记录” > “清除浏览数据”。 - 选择时间范围(如“所有时间”)并勾选“缓存的图片和文件”。 ### 3. 管理应用缓存 - 许多应用(如社交媒体、流媒体服务)在设置中提供缓存清理选项。 - 如果应用没有内置清理功能,可尝试卸载后重装,但注意备份重要数据。 ### 4. 重启 iPhone - 简单重启能清除部分临时文件和内存中的残留数据,常能立即改善性能。 - 对于隐藏的系统缓存,重启是低成本的有效手段。 ## 为什么这在 AI 时代更显重要? 随着 AI 应用在 iPhone 上日益普及,如 Siri、机器学习驱动的相机功能或第三方 AI 工具,这些应用往往需要更多缓存来处理数据。如果缓存管理不当,AI 功能的响应速度可能大打折扣,影响用户体验。定期清理缓存不仅能释放空间,还能确保 AI 驱动服务高效运行,这在移动设备性能优化中已成为基础但关键的一环。 ## 小结:养成缓存清理习惯 - **定期操作**:建议每月清理一次浏览器和应用缓存,根据使用频率调整。 - **结合重启**:每周重启 iPhone 一次,有助于维持系统健康。 - **监控存储**:在“设置” > “通用” > “iPhone 存储空间”中查看缓存占用情况。 通过简单维护,你的 iPhone 可以持续保持快速响应,更好地支持日益增长的 AI 应用需求。

ZDNet AI18天前原文
Anthropic否认能在战争期间破坏AI工具,称Claude模型无法远程操控

近日,美国国防部与AI公司Anthropic之间的法律纠纷引发关注。国防部指控Anthropic可能在战争期间操纵其生成式AI模型Claude,从而危及军事行动。对此,Anthropic高管在法庭文件中坚决否认,强调公司无法远程关闭或修改已部署的Claude模型。 **核心争议:AI模型在军事应用中的控制权** 这场争论的核心在于:一旦AI模型被军方部署,其开发者是否仍能对其施加影响?国防部担心,Anthropic可能通过“后门”或远程“紧急关闭开关”在关键时刻干扰军事行动,例如分析数据、生成作战计划等任务。这种担忧导致国防部将Anthropic列为“供应链风险”,并禁止其软件在国防部及相关承包商中使用。 **Anthropic的回应:技术层面上的不可能** Anthropic公共部门负责人Thiyagu Ramasamy在法庭文件中明确表示:“Anthropic从未有能力导致Claude停止工作、改变其功能、切断访问,或以其他方式影响或危及军事操作。”他进一步解释,公司没有所需的访问权限来禁用技术或在行动期间修改模型行为。 - **无后门或远程“紧急关闭开关”**:Ramasamy强调,Claude的技术设计不允许Anthropic人员登录国防部系统进行修改或禁用。 - **更新需政府批准**:模型更新必须获得政府及其云服务提供商的批准,这意味着公司无法单方面推送可能有害的更新。 **行业背景与影响** 这一事件突显了AI在国家安全领域应用的敏感性和复杂性。随着AI技术越来越多地融入军事系统(如数据分析、备忘录撰写和作战计划生成),其可靠性和独立性成为关键考量。国防部的担忧并非空穴来风,因为AI模型的潜在漏洞或恶意操控可能带来灾难性后果。然而,Anthropic的立场也反映了AI开发者在平衡创新与责任时的困境——如何确保模型安全,同时避免被误认为具有不当控制能力。 **法律与商业后果** Anthropic已提起两起诉讼,挑战禁令的合宪性,并寻求紧急命令以撤销禁令。但商业影响已显现:客户开始取消交易,其他联邦机构也在放弃使用Claude。一场听证会定于3月24日在旧金山联邦地区法院举行,法官可能很快做出临时裁决。政府律师在文件中辩称,国防部“不必容忍关键军事系统在国防和军事行动的关键时刻面临风险”。 **未来展望** 这场纠纷不仅关乎Anthropic与国防部的直接冲突,更可能为AI在军事领域的监管树立先例。它提出了一个根本问题:在AI时代,如何定义和控制“供应链风险”?随着AI模型变得更加复杂和自主,类似的争议可能会在其他国家和公司中重现。对于AI行业而言,这强调了透明度和技术设计的重要性——开发者需从源头确保模型的安全性和不可篡改性,以赢得政府和公众的信任。 总之,Anthropic与国防部的对峙揭示了AI技术在国家安全应用中的深层挑战。尽管公司否认了操控可能性,但这一事件提醒我们,AI的部署必须伴随严格的技术保障和监管框架,以防止潜在风险。

WIRED AI18天前原文
亚马逊再战智能手机市场:AI加持的“Transformer”能否打破僵局?

距离2014年灾难性的Fire Phone发布已过去十年,亚马逊似乎正酝酿重返智能手机市场。据路透社报道,亚马逊的“设备与服务”部门正在开发一款代号为**Transformer**的智能手机,其核心体验将围绕**亚马逊的Alexa+ AI助手**和购物功能展开。然而,细节寥寥:价格、开发成本、操作系统、发布时间均未确定,甚至项目仍有被取消的可能。亚马逊发言人对此不予置评。 ## Fire Phone的失败教训 亚马逊的首次智能手机尝试——**Fire Phone**,在2014年推出后迅速折戟。失败原因显而易见: - **有限的App生态系统**:Fire Phone运行亚马逊自研的Fire OS,缺乏对Google Play商店的原生访问,导致应用选择严重受限。 - **销售惨淡**:糟糕的市场表现迫使亚马逊在短时间内停产该设备。 - **噱头功能**:如3D显示和Firefly应用(允许用户通过摄像头识别物体并在亚马逊上购买),未能转化为实际吸引力。 值得注意的是,亚马逊今年据传将推出一款运行**Google Android操作系统**的Fire平板,而非Fire OS。这暗示新智能手机可能同样采用Android,但路透社报告指出,Transformer可能配备AI界面,旨在“消除对传统应用商店的需求”。 ## AI驱动的“生成式UI”趋势 Transformer的潜在AI界面并非孤例。在2024年世界移动通信大会上,德国电信展示了一款概念手机,其界面通过语音交互生成,而非依赖传统应用。Nothing CEO Carl Pei去年告诉WIRED,他认为未来智能手机可能只有一个“应用”,即操作系统本身。 AI行业正加速发展“代理技能”,使聊天机器人能代表用户完成任务。例如: - **Google**最近在三星和Pixel手机上推出了Gemini助手的任务自动化功能,允许用户通过语音指令预订Uber或DoorDash外卖。 - **OpenAI**正与前苹果设计师Jony Ive合作开发新的AI设备,旨在成为比智能手机更智能的协作工具,尽管细节尚不明朗。 ## 市场挑战与不确定性 专家警告,亚马逊若推出Transformer,将面临近乎不可能的市场突破: - **竞争激烈**:智能手机市场已由苹果和三星主导,新进入者难以撼动现有格局。 - **历史包袱**:Fire Phone的失败给亚马逊品牌蒙上阴影,消费者可能持怀疑态度。 - **技术风险**:AI界面能否替代传统应用商店,仍是一个未经验证的概念,可能面临兼容性和用户体验问题。 ## 结论:谨慎观望 亚马逊的Transformer项目目前仍处于传闻阶段,缺乏关键细节。虽然AI和购物整合可能带来差异化体验,但鉴于Fire Phone的教训和当前市场环境,成功概率极低。除非亚马逊能解决生态系统、定价和用户信任等核心问题,否则这款新设备很可能重蹈覆辙。对于消费者和行业观察者而言,保持谨慎乐观是明智之举——毕竟,在智能手机这个红海市场,光有AI噱头远远不够。

WIRED AI18天前原文

在 AI 驱动的开发工具领域,性能优化常被视为技术选型的核心考量。最近,一个名为 **openui-lang** 的项目团队分享了他们的经验:他们原本使用 Rust 编写解析器并编译为 WebAssembly(WASM),旨在利用 Rust 的高性能和 WASM 的浏览器近原生速度,但最终却通过重写为 TypeScript 实现了更快的解析速度。这一案例揭示了在特定场景下,技术栈选择可能并非性能瓶颈的关键,而是跨语言边界开销的隐性成本。 ### 项目背景与解析流程 **openui-lang** 是一个将大型语言模型(LLM)生成的自定义领域特定语言(DSL)转换为 React 组件树的解析器。它在每次流式传输块中运行,因此延迟至关重要。解析管道包含六个阶段: 1. **自动闭合器**:通过添加最小闭合括号或引号,使部分(中流)文本语法有效。 2. **词法分析器**:单遍字符扫描器,输出类型化令牌。 3. **分割器**:将令牌流切割为 `id = expression` 语句。 4. **解析器**:递归下降表达式解析器,构建抽象语法树(AST)。 5. **解析器**:内联所有变量引用(支持提升和循环引用检测)。 6. **映射器**:将内部 AST 转换为 React 渲染器使用的公共 OutputNode 格式。 ### WASM 边界开销:性能瓶颈的根源 团队最初选择 Rust 和 WASM,是基于 Rust 的高效性和 WASM 在浏览器中的速度优势。然而,他们很快发现,Rust 解析代码本身并非慢的部分,真正的开销在于 **WASM 边界**。每次调用 WASM 解析器时,无论 Rust 代码运行多快,都必须支付固定开销:将字符串复制到 WASM 内存,将结果序列化为 JSON 字符串,复制 JSON 字符串回 JavaScript 堆,然后 V8 引擎将其反序列化为 JS 对象。这一过程涉及多次内存复制和跨运行时转换,累积起来成为性能瓶颈。 ### 尝试优化:跳过 JSON 往返的失败 为了减少开销,团队尝试使用 **serde-wasm-bindgen** 库,直接从 Rust 结构返回 JS 对象,跳过 JSON 序列化步骤。理论上,这应能减少操作次数。但实际测试显示,这种方法反而慢了 30%。原因在于,JavaScript 无法直接从 WASM 线性内存中读取 Rust 结构作为原生 JS 对象,因为两个运行时使用完全不同的内存布局。serde-wasm-bindgen 需要递归地将 Rust 数据转换为真实的 JS 数组和对象,这导致每次 `parse()` 调用都涉及许多细粒度的跨边界转换。相比之下,JSON 方法中,`serde_json::to_string()` 在纯 Rust 中运行,无边界交叉,产生单个字符串,一次内存复制后,由 V8 的原生 C++ `JSON.parse` 在单个优化通道中处理。更少、更大、更优化的操作胜过了许多小操作。 ### 性能基准测试数据 团队进行了基准测试,比较 JSON 字符串往返与直接 JsValue 方法的性能(基于 1000 次运行,微秒每调用): - **简单表格**:JSON 往返 20.5 µs,serde-wasm-bindgen 22.5 µs,慢了 9%。 - **联系表单**:JSON 往返 61.4 µs,serde-wasm-bindgen 79.4 µs,慢了 29%。 这些数据证实了边界开销的显著影响,促使团队重新评估技术栈。 ### 重写为 TypeScript:性能提升的实现 基于上述发现,团队决定将解析器重写为 TypeScript。这一决策并非否定 Rust 或 WASM 的通用优势,而是针对特定场景的优化。在 TypeScript 实现中,解析过程完全在 JavaScript 运行时内进行,消除了 WASM 边界开销。结果,解析速度得到提升,尤其是在流式处理场景下,延迟显著降低。这突显了在 AI 工具链中,技术选型需结合实际工作负载:对于高频率、小数据量的解析任务,减少跨语言通信可能比原始计算速度更重要。 ### 对 AI 行业的意义 这一案例为 AI 开发工具的性能优化提供了重要启示: - **边界开销不容忽视**:在集成不同技术栈时,跨语言或运行时边界的数据传输成本可能成为性能瓶颈,尤其是在实时或流式应用中。 - **场景驱动技术选型**:Rust 和 WASM 在计算密集型任务中表现出色,但对于解析器等 I/O 密集型操作,本地 JavaScript/TypeScript 实现可能更高效,因为它避免了序列化和反序列化开销。 - **优化策略的优先级**:团队最初“优化了错误的东西”,专注于 Rust 代码的速度,而忽略了整体系统开销。这提醒开发者,性能分析应涵盖整个管道,从数据输入到输出。 总之,openui-lang 的经验表明,在 AI 工具开发中,盲目追求高性能语言未必带来最佳结果;通过减少边界开销,TypeScript 等本地技术也能在特定场景下胜出。这鼓励开发者更细致地评估工作负载,以实现真正的性能提升。

Hacker News29318天前原文
作家否认但出版社下架恐怖小说,多起指控指向AI创作

近日,一部名为《害羞女孩》(Shy Girl)的恐怖小说在出版界引发了一场前所未有的争议。这部由米娅·巴拉德(Mia Ballard)创作的小说,从自出版平台崛起后,被英国大型出版商阿歇特(Hachette)选中,计划推向英美市场。然而,随着《纽约时报》的调查报道指出小说中大量内容疑似由AI生成,阿歇特迅速采取行动,下架了该书的英国版本,并取消了美国发行计划。 ## 争议的起源:从社交媒体爆红到质疑声四起 《害羞女孩》于2025年自出版后,凭借其独特的恐怖情节——讲述一位患有抑郁症和强迫症的女性吉娅,为偿还债务而成为“糖爹”的“宠物”,最终逐渐兽化的故事——在社交媒体上迅速积累了大量粉丝。一位Goodreads评论者甚至表示:“我痴迷于米娅·巴拉德的写作方式。” 然而,并非所有读者都买账。另一条评论直指该书是“绝对的垃圾……过度写作、重复、执行糟糕、格式糟糕”。很快,质疑声从文学批评转向了更根本的问题:这本书真的是“写”出来的吗? ## 指控升级:从Reddit到YouTube的AI生成证据 2026年1月,一位自称资深图书编辑的网友在Reddit上发布长文,指出《害羞女孩》具有AI文学的所有特征。该帖子写道:“如果是这样,我觉得它被英国第二大出版公司选中并出版是令人厌恶的。如果不是AI,那她就是个糟糕的作家——她的写作与大型语言模型(LLM)真的无法区分。” 随后,一段长达两个半小时的YouTube视频进一步强化了这些指控,获得了120万次观看。AI检测公司如Pangram也加入讨论,声称该书显示出主要由AI生成的迹象。 ## 出版社的回应:调查后的果断行动 尽管争议不断,阿歇特最初似乎仍计划在今年晚些时候在美国发行该书。但昨天,《纽约时报》发布了自己的调查报道,通过多种AI检测工具分析小说段落,发现了**逻辑漏洞、过度使用夸张形容词和依赖重复模式**等AI生成文本的典型特征。 这一报道成为压垮骆驼的最后一根稻草。阿歇特立即宣布下架《害羞女孩》的英国版本,并取消所有美国发行计划。这一举动标志着出版业首次因AI使用争议而大规模撤回已出版作品,引发了行业内外对AI创作伦理和版权问题的广泛讨论。 ## AI在创作领域的挑战与未来 此次事件突显了AI技术对传统创作行业的冲击。随着生成式AI工具的普及,如何界定“原创”与“AI辅助”成为亟待解决的问题。出版行业可能面临以下挑战: - **检测难题**:现有AI检测工具虽能识别模式,但准确率仍存争议,容易误判或漏判。 - **伦理边界**:作者使用AI工具的程度是否需要透明披露?读者是否有权知道作品是否由AI生成? - **版权归属**:如果作品大量依赖AI,版权应属于作者、AI开发者还是训练数据提供者? 米娅·巴拉德目前否认使用AI创作,但出版社的迅速行动表明,行业对AI生成内容的容忍度正在降低。未来,出版商可能会加强审查流程,甚至要求作者签署“无AI使用”声明,以维护作品的原创性和市场信任。 这场争议不仅关乎一部小说的命运,更可能成为AI时代创作伦理的一个分水岭,推动行业建立更清晰的标准和规范。

Ars Technica18天前原文

微软近日宣布,将对其Windows 11操作系统进行一系列改进,其中最引人注目的是减少其AI助手Copilot的入口点。公司表示,将减少Copilot在部分应用中的集成,首批涉及**Photos、Widgets、Notepad和Snipping Tool**。这一举措反映了微软在AI集成上采取“少即是多”的策略,旨在提升用户体验,并回应消费者对AI功能过度膨胀的担忧。 ### 背景:AI膨胀与用户反馈 近年来,随着AI技术的快速发展,许多科技公司急于将AI功能集成到现有产品中,导致“AI膨胀”现象——即功能过多、分散,反而降低了用户体验。微软Windows和设备执行副总裁**Pavan Davuluri**在公司博客中写道,微软正变得更加“有意识”地决定Copilot在Windows中的集成方式和位置,目标是专注于真正有用的AI体验。 用户反馈在这一决策中起到了关键作用。Davuluri表示,他和团队在过去几个月里一直在倾听社区关于如何改进Windows的意见。这不仅限于Copilot的调整,还包括其他改进,如允许任务栏移动到屏幕顶部或侧面、给予用户更多系统更新控制权、加速File Explorer、优化Widgets体验等。 ### 行业趋势:从兴奋到担忧 这一调整也反映了更广泛的行业趋势。根据皮尤研究中心本月发布的一项研究,截至2025年6月,**一半的美国成年人现在对AI更担忧而非兴奋**,高于2021年的37%。这表明,随着AI普及,公众的关注点正从技术新奇性转向信任和安全问题。 微软并非首次重新考虑其Copilot集成。本月初,新闻网站Windows Central报道称,微软计划在Windows 11中推出Copilot品牌AI功能的计划已被悄悄搁置,包括设置应用、文件资源管理器等处的系统级集成。此前,微软还因用户隐私问题,将其AI驱动的记忆功能**Windows Recall for Copilot + PCs**的发布推迟了一年多。 ### 影响与展望 微软的这一举措可能为其他科技公司树立榜样,鼓励在AI集成中更注重质量而非数量。通过减少不必要的入口点,微软有望提升Copilot的核心价值,避免功能分散导致的用户困惑。同时,这也显示了微软对用户隐私和安全的重视,尤其是在Recall功能仍存在安全漏洞的背景下。 未来,微软可能会继续基于用户反馈优化AI体验,平衡创新与实用性。随着AI技术成熟,行业或许会更多转向“精准集成”,而非盲目扩张。对于用户来说,这意味着更流畅、可靠的Windows体验,以及AI工具的真正赋能。

TechCrunch18天前原文