SheepNav

AI 资讯

每日聚合最新人工智能动态

来源:WIRED AI清除筛选 ×
Grammarly 因 AI '专家审阅' 功能面临集体诉讼

## Grammarly AI 功能引发集体诉讼:未经授权使用名人身份 知名写作辅助软件 Grammarly 的母公司 **Superhuman** 正面临一项集体诉讼,原因是其推出的 AI 功能 **'Expert Review'**(专家审阅)在未经许可的情况下,使用了包括斯蒂芬·金、尼尔·德格拉斯·泰森以及调查记者朱莉娅·安格温在内的数百位作家、记者和学者的姓名与身份,来模拟他们为用户提供文本编辑建议。 ### 诉讼核心:身份盗用与不当获利 这起诉讼于周三下午在纽约南区联邦法院提起,原告朱莉娅·安格温代表自己及其他类似处境的人,指控 Grammarly **'盗用数百名记者、作家和编辑的姓名和身份,为 Grammarly 及其所有者 Superhuman 牟利'**。安格温是获奖调查记者,也是非营利新闻机构 The Markup 的创始人。诉讼虽未提出具体赔偿金额,但主张原告群体的损失总额超过 **500 万美元**。 ### 功能机制与争议焦点 'Expert Review' 是 Superhuman 去年为 Grammarly 平台新增的一系列 AI 驱动小工具之一。该功能允许用户选择一位知名作家或学者(无论在世或已故)作为“虚拟编辑”,由 AI 模拟其风格或视角对用户文本提出修改建议。尽管功能附有免责声明,指出所引用的名人并未直接参与或认可该工具的开发(其底层基于大型语言模型),但许多被提及的作家,包括 WIRED 的记者,都对 Grammarly 擅自使用他们的形象和姓名表示不满和沮丧。 ### 公司回应:功能已下架并道歉 在诉讼提起前,Superhuman 已因公众强烈反对决定暂停此功能。公司产品管理总监 Ailian Gan 向 WIRED 发表声明称:**'经过慎重考虑,我们决定禁用 Expert Review,同时重新构思该功能,使其对用户更有用,并让专家真正控制他们希望如何被呈现——或者根本不呈现。我们构建这个工具的初衷是帮助用户汲取思想领袖和专家的见解,并为专家提供分享知识和触达新受众的新方式。根据收到的反馈,我们显然未能达到预期。我们对此感到抱歉,并将在未来采取不同的做法。'** ### AI 行业背景下的警示 这起事件突显了 AI 应用在商业化过程中面临的伦理与法律挑战: - **身份授权问题**:未经明确同意使用个人身份(尤其是公众人物)进行 AI 模拟,可能构成身份盗用或侵犯公开权。 - **透明度与免责**:即使有免责声明,若功能设计暗示了直接参与(如以第一人称提供建议),仍可能误导用户并引发法律风险。 - **行业自律**:随着 AI 生成内容日益普及,企业需更谨慎地处理数据来源和身份关联,避免类似纠纷。 ### 未来走向 目前,'Expert Review' 功能已被禁用,Superhuman 表示将重新设计。诉讼的进展可能影响其他 AI 公司如何利用名人或专家身份进行产品营销,推动更严格的合规审查。对于用户而言,这也提醒了在使用 AI 工具时,需注意其建议的来源和真实性,尤其是在涉及权威背书时。 **关键点总结**: - Grammarly 的 AI 功能因未经授权使用名人身份面临集体诉讼。 - 诉讼指控公司盗用身份牟利,索赔可能超 500 万美元。 - 公司已下架功能并道歉,承诺重新设计以尊重专家意愿。 - 事件反映了 AI 行业在身份授权和透明度方面的普遍挑战。

WIRED AI25天前原文
英伟达斥资260亿美元构建开源AI模型,剑指OpenAI与DeepSeek

根据英伟达2025年财务文件披露,这家AI基础设施巨头计划在未来五年内投入**260亿美元**,用于构建开源人工智能模型。这一战略举措标志着英伟达正从一家拥有强大软件栈的芯片制造商,向能与**OpenAI**、**DeepSeek**等前沿实验室直接竞争的角色演变。 ### 战略转型:从硬件霸主到模型前沿 长期以来,英伟达凭借其GPU硬件在AI算力领域占据主导地位。此次巨额投资表明,公司不再满足于仅为其他AI公司提供“铲子”,而是亲自下场“挖矿”。通过构建并开源自己的大模型,英伟达旨在进一步巩固其生态系统: - **硬件与软件深度绑定**:开源模型将针对英伟达自家硬件进行优化,形成“芯片+模型”的协同优势,吸引更多开发者在其平台上进行创新。 - **降低行业门槛**:公开模型权重、架构细节和训练技术,有助于初创公司和研究人员更便捷地使用、修改并在此基础上开发,从而繁荣整个AI开发生态。 ### 最新成果:Nemotron 3 Super亮相 就在宣布投资计划的同时,英伟达发布了其迄今为止最强大的开源模型——**Nemotron 3 Super**。该模型拥有**1280亿参数**,规模与OpenAI最大的**GPT-OSS**版本相当。英伟达声称,Nemotron 3 Super在多项基准测试中表现优异: - 在综合评估模型能力的**人工智能指数**上得分37(满分50),高于GPT-OSS的33分。 - 在专门测试模型控制**OpenClaw**能力的新基准**PinchBench**上排名第一。 此外,英伟达还披露了训练Nemotron 3系列模型所采用的一系列技术创新,包括提升模型推理能力、长上下文处理以及对强化学习响应性的架构与训练技巧。 ### 开源竞赛:英伟达的“阳谋” 英伟达并非首家押注开源模型的大型科技公司。**Meta**早在2023年就发布了开源模型Llama,开启了行业先河。然而,英伟达的入局有其独特优势: - **资金实力雄厚**:260亿美元的五年预算,远超多数AI初创公司的融资总额,确保了长期研发的可持续性。 - **生态控制力强**:通过开源模型吸引开发者,能进一步拉动对其硬件和云服务的需求,形成良性循环。 - **技术栈完整**:从芯片设计到模型训练,英伟达拥有全栈技术能力,能实现端到端的优化。 英伟达应用深度学习研究副总裁**Bryan Catanzaro**表示:“英伟达正在更认真地对待开源模型开发,并且我们取得了很大进展。”这番话暗示公司已将开源模型提升至核心战略层面。 ### 行业影响:竞争格局或将重塑 英伟达的巨额投资可能对AI行业产生深远影响: 1. **加剧模型层竞争**:OpenAI、Anthropic、DeepSeek等专注模型研发的公司将面临来自硬件巨头的直接挑战。 2. **推动开源生态**:更多高质量开源模型的涌现,将降低AI应用开发成本,加速技术普及。 3. **引发硬件绑定争议**:英伟达“优化自家硬件”的策略,可能引发关于开源模型是否真正“开放”的讨论。 总体而言,英伟达的260亿美元赌注,不仅是其自身的一次战略转型,更可能搅动整个AI产业的竞争格局。未来五年,我们或将见证一场由硬件巨头主导的开源模型竞赛。

WIRED AI25天前原文
Meta 研发四款新芯片,为 AI 与推荐系统提供动力

Meta 近日宣布,已开发出四款新的计算机芯片,将用于驱动其应用内的生成式 AI 功能和内容排名系统。这些硬件将成为 Meta 现有芯片系列 **MTIA(Meta 训练与推理加速器)** 的一部分。Meta 与 **Broadcom** 合作开发了这些基于开源 **RISC-V 架构** 的半导体,并由全球领先的芯片制造商 **台积电(TSMC)** 负责制造。 其中一款新芯片 **MTIA 300** 已投入生产,而另外三款——**MTIA 400、450 和 500**——预计将在 **2027 年初至年底** 陆续推出。Meta 工程副总裁 YJ Song 表示,AI 模型的演进速度远超传统芯片开发周期,因此公司采取迭代策略,每代 MTIA 都基于前代构建,采用模块化小芯片设计,并融入最新的 AI 工作负载洞察和硬件技术。 **MTIA 300** 主要用于训练算法,为每天使用 Facebook 和 Instagram 等应用的数亿用户进行内容排名和推荐。其他三款芯片则旨在支持 **推理(inference)**,即运行已训练的 AI 模型以生成文本或图像等输出。 - **MTIA 400**:据称性能“与领先商业产品竞争”,已通过测试,预计很快将部署到数据中心。 - **MTIA 450**:将拥有 MTIA 400 两倍的高带宽内存,计划于 **2027 年初** 推出。 - **MTIA 500**:预计 **2027 年底** 面世,内存容量超过 MTIA 450,并包含“低精度数据创新”。 MTIA 芯片是 Meta 更广泛战略的一部分,旨在积累尽可能多的计算能力,以开发尖端人工智能。Meta 于 **2023 年** 首次披露其芯片开发计划,标志着这家社交媒体巨头正加速向硬件领域渗透,以应对 AI 时代的激烈竞争。此举也反映了行业趋势:科技公司正越来越多地投资自研芯片,以优化性能、降低成本并减少对英伟达等外部供应商的依赖。 尽管 Meta 持续在英伟达等行业领导者的设备上投入数十亿美元,但自研芯片的推进显示了其长期自主可控的野心。快速推出新硅片在芯片行业标准中并不常见,对于一家历史上不生产自有物理计算基础设施的社交媒体公司来说更是前所未有。这突显了 AI 驱动下,硬件创新正成为科技巨头核心竞争力的关键一环。

WIRED AI25天前原文
这款数字相框想带人们走近全息未来:Musubi 用 AI 让照片“活”起来

全息影像一直是科幻作品中的经典元素,从《星球大战》到《星际迷航》,它象征着未来科技的魅力。然而,在现实生活中,全息技术虽被众多科技公司追捧,却始终难以普及到消费级市场。如今,总部位于布鲁克林的 **Looking Glass** 公司推出了 **Musubi**——一款面向消费者的 AI 驱动全息数字相框,试图将科幻梦想带入寻常百姓家。 **Looking Glass** 已在 3D 全息屏幕领域深耕近十年,Musubi 是其最新成果。用户只需上传任何照片或视频,设备便会利用人工智能提取画面中最关键的部分,并将其以 3D 图像的形式“悬浮”在相框内的空间中。无论是记录孩子第一步的视频,还是生日派对的快照,都能以近 170 度视角的全息形式呈现,带来沉浸式的视觉体验。 **Musubi 的核心特点**: - **无需复杂连接**:设备不依赖 Wi-Fi,没有应用程序,也不内置摄像头,避免了隐私担忧。 - **本地 AI 处理**:图像或视频转换为全息格式的处理工作完全在用户的 PC 或 MacBook 上完成,通过附赠的免费软件实现,确保了数据本地化和处理效率。 - **简便操作**:编辑后的内容可通过 USB-C 线缆传输到设备,Musubi 最多可存储 1000 张图像(视频限于 30 秒片段)。 - **便携设计**:支持壁插电源,内置可充电电池,续航约三小时,适合多场景使用。 Looking Glass 首席执行官 Shawn Frayne 强调,Musubi 是首批完全依赖本地 AI 的设备之一,这不仅是技术上的突破,也呼应了当前行业对数据隐私和边缘计算的重视。相比之下,其他类似产品如游戏公司 Razer 近期发布的 Ava AI——一个置于 3D 管中的 AI 聊天机器人角色,更侧重于交互功能,而 Musubi 则聚焦于静态和动态内容的视觉呈现。 **行业背景与意义**: 在 AI 和硬件融合的浪潮下,Musubi 代表了消费电子向个性化、沉浸式体验发展的趋势。它降低了全息技术的使用门槛,让普通用户能以亲民的价格接触前沿科技。然而,其成功与否将取决于内容生态的构建和用户接受度——毕竟,技术再炫酷,也需要真实的应用场景来支撑。 随着 AI 在图像处理领域的进步,类似 Musubi 的设备可能会激发更多创新,推动全息技术从科幻走向日常。Looking Glass 的这一步,或许正是开启全息普及时代的关键尝试。

WIRED AI25天前原文
尼克·克莱格:不想谈论超级智能,只想做点实在的AI事

## 从Meta到AI教育:尼克·克莱格的务实转向 去年离开Meta后,英国前副首相尼克·克莱格在AI行业的选择出人意料——他没有加入AGI(通用人工智能)的狂热讨论,而是选择了两个看似“平凡”的领域:数据中心和教育科技。 本周,克莱格宣布加入两家AI公司的董事会:**英国数据中心公司Nscale**和**教育科技初创公司Efekta**。后者是瑞士EF教育第一的衍生公司,开发了一款AI教学助手,能够根据学生能力调整教学内容,并向教师发送进度报告。该平台目前约有**400万学生用户**,主要集中在拉丁美洲和东南亚。 ## “我不喜欢任何一方的炒作” 在接受WIRED采访时,克莱格明确表达了对当前AI讨论中极端言论的反感。 > “说AI下周二就会摧毁我们熟知的生活是炒作,说它是自火发明以来人类最强大的东西同样是炒作。我对两边的炒作都感到厌恶。” 他认为,这些极端言论往往由“有东西要卖的人”或“想夸大自己发明威力的人”传播。AI之所以引发如此两极分化的讨论,是因为它“既非常通用,又非常愚蠢”——在某些领域(如编程)异常强大,在其他许多领域却异常无用。 ## 教育:AI能最早产生实质性影响的领域 克莱格特别看好AI在教育领域的应用前景。他认为,**课堂将是AI最早带来根本性改进的场景之一**。Efekta的AI教学助手旨在复制传统课堂难以实现的一对一教学,这正是克莱格看中的“务实”方向。 他的角色将是利用自己在政治和科技领域的经验,为Efekta拓展新市场提供建议。这与他过去在Meta负责全球事务的职位形成了有趣对比——从全球社交网络的治理转向具体教育产品的落地。 ## 对AI政治生态的担忧 尽管对教育AI持乐观态度,克莱格对AI竞争的政治层面却没那么乐观。他担心这场竞赛会**进一步将权力集中在硅谷**,并对两种势力表达了同等的不满: - **“烦人的布鲁塞尔官僚”**:他认为欧洲的监管环境扼杀了本土AI创业者的活力 - **“跪倒在特朗普脚下的大科技精英”**:他对美国科技巨头与政治权力的结盟感到不安 这种批评立场,显然与他作为英国前副首相和Meta前高管的双重身份有关——既理解监管的必要性,又目睹了过度监管的代价;既熟悉科技巨头的运作,又警惕其权力膨胀。 ## 为什么避开超级智能话题? 克莱格的选择反映了一种行业趋势:在AGI和超级智能的宏大叙事之外,越来越多的从业者开始关注AI在**具体场景中的实际价值**。 - **数据中心**(Nscale)是AI基础设施的关键环节,但很少成为媒体头条 - **教育科技**(Efekta)直接影响数百万学生的学习体验,却不像聊天机器人那样引人注目 这种“向下看”的视角,或许正是克莱格对当前AI讨论的回应——当整个行业沉迷于“AI是否会毁灭人类”的哲学辩论时,有人选择先解决“AI能否帮助这个孩子学得更好”的实际问题。 ## 小结:务实主义者的AI路径 尼克·克莱格的职业转向,揭示了一个值得关注的行业现象:**在AI的宏大叙事与日常应用之间,存在着广阔的中间地带**。 - 他不否认AI的潜力,但拒绝被极端言论绑架 - 他选择投资基础设施(数据中心)和应用场景(教育),而非追逐最热门的AGI概念 - 他对AI的政治影响保持警惕,但更愿意通过具体项目推动积极变化 在AI行业日益分化为“末日论者”和“狂热信徒”的今天,克莱格这种**务实、场景驱动的态度**,或许提供了一条被忽视的第三条道路。毕竟,当我们在争论AI未来是否会统治人类时,已经有400万学生正在通过AI获得更好的教育——这本身就是一个不容忽视的现实。

WIRED AI25天前原文
青少年利用AI驱动的‘诽谤页面’恶搞老师,网络欺凌升级

近期,一种由学生主导的AI视频恶搞趋势在TikTok和Instagram上悄然兴起,被称为“诽谤页面”(slander pages)。这些账号利用AI工具,如Viggle AI,将学校教职员工的照片或视频与不当内容结合,制作成病毒式传播的恶搞视频,甚至将老师与杰弗里·爱泼斯坦(Jeffrey Epstein)或本杰明·内塔尼亚胡(Benjamin Netanyahu)等争议人物相提并论。 ## 什么是“诽谤页面”? “诽谤页面”主要指学生运营的社交媒体账号,通过AI技术生成恶搞视频,旨在嘲笑或攻击学校教职员工。例如,一个名为@thewyliefiles的Instagram账号发布了一段视频,其中一位前学校主管的影像被AI处理,与爱泼斯坦和内塔尼亚胡的AI生成版本一起“合唱”一首情歌。该视频获得了超过10.7万次点赞,评论区充斥着“宝藏警报!”等网络用语,显示其病毒式传播潜力。 这些视频不仅限于简单的玩笑,有时会使用来自网络阴暗角落的俚语,如“looksmaxxing”(源自男性论坛,教导如何提升吸引力)中的术语“mog”(指以外貌压制他人)和“sub5”(指丑陋到非人程度),进一步加剧了对个人的侮辱性攻击。 ## AI工具如何被滥用? 关键工具之一是**Viggle AI**,这是一个AI图像转视频平台,允许用户将任何照片中的人物插入参考视频,或将静态图像动画化为对口型视频。根据伦敦国王学院学术研究机构“全球极端主义与技术网络”的博客文章,Viggle AI被描述为“自发极端主义宣传创作的新前沿”。截至今年2月,该平台已拥有超过4000万用户,但其在“诽谤页面”中的滥用案例凸显了技术滥用的风险。 例如,一个已被删除的TikTok视频使用Viggle AI,将一位老师的脸叠加到在浴室抽搐的人身上,并配文“吸毒或无用”,这种内容不仅侵犯个人隐私,还可能构成网络欺凌和诽谤。 ## 为什么这值得关注? 与传统的高中恶作剧相比,“诽谤页面”利用AI技术放大了伤害性: - **传播范围更广**:社交媒体平台使内容迅速病毒化,影响远超校园。 - **内容更具攻击性**:AI工具能轻松生成侮辱性联想,如将老师与罪犯或政治人物对比。 - **法律与道德风险**:这可能涉及诽谤、隐私侵犯,甚至煽动仇恨,对受害者造成长期心理伤害。 尽管Viggle AI未回应评论请求,但这一趋势反映了AI普及下的新挑战:当创意工具落入缺乏监管的青少年手中,如何平衡创新与责任成为紧迫议题。 ## 行业背景与反思 在AI行业快速发展的背景下,此类事件提醒我们: - **技术双刃剑效应**:AI工具如Viggle AI本可用于娱乐或教育,但滥用可能导致社会问题。 - **监管缺失**:目前对AI生成内容的监管尚不完善,平台和开发者需加强内容审核机制。 - **数字素养教育**:青少年是AI的主要用户群体,加强网络道德和法律责任教育至关重要。 总之,“诽谤页面”现象不仅是青少年恶作剧的数字化升级,更是AI时代网络欺凌的新形态。它呼吁社会、教育机构和科技公司共同行动,确保技术发展不偏离人性化轨道。

WIRED AI25天前原文
OpenAI 内部:追赶 Claude Code 的竞赛

在 AI 编程革命浪潮中,OpenAI 作为行业巨头,却意外地落后于竞争对手 Anthropic 的 Claude Code。本文深入探讨了 OpenAI 创始人 Sam Altman 对此的反思、公司战略调整,以及 AI 编程市场的巨大潜力与未来走向。 ### 行业背景:AI 编程的崛起与竞争格局 近年来,AI 编程已成为 AI 应用中最具商业价值的领域之一。数百万软件工程师开始将编程任务委托给 AI,这不仅推动了自动化进程,还催生了一个快速增长的市场。企业愿意为此支付高昂费用,使得编程代理成为 AI 商业化的重要突破口。 然而,在这个关键赛道上,OpenAI 并未占据领先地位。相反,其竞争对手 **Anthropic**(由 OpenAI 前员工创立)凭借 **Claude Code** 取得了显著成功。根据 Anthropic 今年 2 月的数据,Claude Code 贡献了公司近五分之一的业务,年化收入超过 **25 亿美元**。相比之下,OpenAI 的同类产品 **Codex** 在 1 月底的年化收入仅为约 **10 亿美元**,差距明显。 ### Sam Altman 的反思与战略转向 在 OpenAI 位于旧金山 Mission Bay 的新总部,创始人 Sam Altman 接受了采访。当被问及为何 OpenAI 在 AI 编程革命中落后时,他坦言:“**先发优势很重要**,我们在 ChatGPT 上体验过这一点。”但他强调,现在是 OpenAI 发力编程领域的时机。 Altman 认为,公司的 AI 模型经过数十亿美元的训练,现已足够强大,能够支持高性能的编程代理。他预测:“**这将是一个巨大的市场**——不仅是其经济价值,还有编程所能解锁的通用工作。我不轻易这么说,但我认为这是少数万亿美元级别的市场之一。” ### 为什么 OpenAI 落后? 1. **市场时机与竞争压力**:Anthropic 的 Claude Code 凭借早期进入市场,迅速占领了用户心智和商业份额。OpenAI 虽在通用 AI 模型上领先,但在垂直应用如编程领域的专注度不足。 2. **资源分配优先级**:OpenAI 可能将更多资源投入基础模型研发(如 GPT 系列),而非特定应用场景的优化,导致在编程代理这类产品化环节滞后。 3. **内部文化影响**:OpenAI 总部充满“AI 启蒙”氛围,强调“好研究需要时间”,这可能在一定程度上影响了产品迭代速度。 ### AI 编程的市场前景与战略意义 Altman 不仅将 Codex 视为商业机会,更认为它是通往 **人工通用智能(AGI)** 的“最可能路径”。根据 OpenAI 的定义,AGI 是能超越人类智能的 AI 系统。编程作为高度结构化和逻辑化的任务,可能成为训练 AGI 的关键试验场。 **关键点总结:** - **商业价值**:AI 编程市场潜力巨大,年化收入已达数十亿美元级别,且持续增长。 - **技术壁垒**:编程代理需要模型具备强大的代码理解、生成和调试能力,这对 AI 的通用能力提出高要求。 - **行业影响**:自动化编程可能重塑软件工程行业,推动效率提升和成本降低。 ### 未来展望:OpenAI 的追赶之路 OpenAI 正加速在编程领域的布局,计划利用其模型优势,推出更强大的 Codex 版本。Altman 表示,公司将更积极地投入资源,以缩小与 Claude Code 的差距。然而,市场竞争激烈,Anthropic 的先发优势可能难以轻易撼动。 对于用户和开发者而言,这场竞赛意味着更多选择和更先进的工具。无论谁领先,AI 编程的普及都将加速技术创新和产业变革。 **最终思考**:在 AI 快速演进的今天,领先者可能随时被超越。OpenAI 的追赶故事提醒我们,持续创新和敏捷响应市场变化,才是保持竞争力的关键。

WIRED AI25天前原文
特朗普政府拒绝对Anthropic承诺不再采取行动,白宫正酝酿行政令全面封杀

在Anthropic就特朗普政府制裁发起首次法庭听证之际,司法部律师明确表示“无法就此问题作出任何承诺”,并透露白宫正在准备一项行政命令,旨在全面禁止联邦机构使用Anthropic的工具。 ## 法庭交锋:政府拒绝承诺,Anthropic寻求紧急救济 本周二,美国地区法官Rita Lin通过视频会议主持了Anthropic挑战特朗普政府制裁的首场听证会。这家AI科技初创公司要求政府承诺不再对其施加额外处罚,但这一请求被当场拒绝。 司法部律师James Harlow向法官表示:“我无法就此问题作出任何承诺。”事实上,政府正准备采取进一步措施,将Anthropic排除在联邦机构业务之外。据一位了解情况但未获授权讨论此事的白宫人士透露,特朗普总统正在最终敲定一项行政命令,将正式禁止政府各部门使用Anthropic的工具。Axios率先报道了这一计划。 ## 诉讼背景:数十亿美元营收面临风险 周二的听证源于Anthropic周一提起的两起联邦诉讼之一。该公司指控政府违宪地将其指定为供应链风险,使其成为科技行业的“弃儿”。 Anthropic表示,由于现有客户和潜在客户退出交易并要求新条款,公司**数十亿美元的营收正面临风险**。该公司正在寻求一项初步法庭命令,暂停风险指定,并禁止政府对其采取进一步惩罚性措施。 Anthropic的WilmerHale律师事务所律师Michael Mongan告诉Lin法官,如果特朗普政府能承诺不采取额外行动,他不太担心将听证推迟到4月。“被告的行为正在造成不可挽回的损害,这些损害每天都在增加,”Mongan说。 ## 司法进程:听证提前但仍晚于预期 在Harlow拒绝承诺后,Lin法官将听证日期提前至**3月24日在旧金山举行**,尽管这一时间表仍晚于Anthropic的期望。 “这个案件对双方都至关重要,我希望确保在加速审理的同时也能基于完整的记录作出决定,”法官表示。 与此同时,在华盛顿特区的另一起案件 scheduling 被搁置,因为Anthropic正在向国防部提起行政上诉,预计该上诉将于周三被驳回。 ## 行业影响:AI初创公司与政府关系的紧张样本 这场长达数月的争端始于Anthropic拒绝国防部的某项要求(原文未具体说明),随后演变为一场全面的法律和政治对抗。此案凸显了AI初创公司在与政府合作时面临的独特挑战,尤其是在国家安全和供应链风险日益成为关注焦点的背景下。 对于Anthropic而言,这场斗争不仅关乎眼前的商业损失,更可能影响其长期发展轨迹。政府禁令不仅会切断重要的收入来源,还可能引发连锁反应,影响私营部门客户和投资者的信心。 ## 未来展望:行政令与法律战的交织 随着白宫行政命令的酝酿,Anthropic的法律战可能进入新阶段。如果行政令正式发布,Anthropic将面临更广泛的业务限制,而法庭则需权衡行政权力与宪法权利之间的界限。 此案的结果可能为其他AI公司提供重要先例,特别是在政府如何定义和处理“供应链风险”方面。在AI技术日益融入关键基础设施的今天,这类争议只会更加频繁和复杂。 --- **关键时间点** - 3月24日:旧金山法庭初步听证 - 预计周三:国防部行政上诉结果 - 近期:特朗普行政命令可能发布 **涉及方** - Anthropic:AI初创公司,以Claude等模型闻名 - 特朗普政府:包括白宫、司法部、国防部 - 司法系统:美国地区法院法官Rita Lin

WIRED AI25天前原文
X平台Grok AI在伊朗战争信息核查中失准,甚至生成虚假内容

## Grok AI在伊朗冲突信息核查中的失败表现 当虚假信息专家Tal Hagin要求**Grok**验证X平台上一条关于伊朗导弹袭击特拉维夫的帖子时,埃隆·马斯克的这款AI聊天机器人表现糟糕。Grok多次错误识别视频的位置和日期——该视频最初由伊朗官方媒体于周日发布在X上。更令人担忧的是,聊天机器人为了“证明”自己的观点,竟然分享了一张**AI生成的图像**。 “现在Grok用AI生成的毁灭性垃圾内容来回复,”Hagin在回应中写道,“简直是胡编乱造。” ## X平台上的虚假信息泛滥 自2月28日美国和以色列开始攻击伊朗以来,X平台与现实脱节的程度日益加剧。正如WIRED当时报道的,该社交媒体平台迅速被分享虚假和重新利用视频的账户淹没的虚假信息。随着冲突持续,这种泛滥情况只会变得更糟。 最近几天,**AI图像和视频**进一步加剧了这一问题,而Grok在要求验证平台上的说法时,多次提供了错误信息。 ## AI生成内容的传播与影响 - **传播渠道**:AI图像由带有蓝色勾号的付费账户和试图夸大损害程度的伊朗官员分享 - **技术背景**:易于访问的AI图像和视频生成工具的普及,导致了越来越复杂的虚假内容 - **具体案例**: - 3月2日,伊朗官员和官方媒体分享了巴林一栋高层建筑着火的AI生成视频 - 一张显示美国B-2轰炸机被伊朗击落、美军被拘留的图像在被删除前被浏览超过100万次 - 显示三角洲部队成员被伊朗当局抓获的图像在被删除前被浏览超过500万次 ## 虚假内容的多样性与危害 一些在X上推广的AI内容真实性较低。例如,一段声称显示伊朗部队在洞穴深处制造导弹的视频,虽然明显虚假,但仍被多个账户分享,浏览量超过100万次。 根据战略对话研究所(ISD)研究人员与WIRED分享的分析,伊朗政府还利用AI推动明显的反犹太主义叙事。X上一个亲政权的宣传网络中的账户分享了AI生成的帖子,描绘正统派犹太人带领美国士兵参战或庆祝美国人死亡。 ## 对AI内容审核的挑战 这一系列事件凸显了AI工具在信息验证方面的局限性,尤其是在地缘政治冲突等高度敏感、快速变化的场景中。Grok的失败不仅在于无法准确识别事实,更在于它主动生成和传播虚假内容,这可能会加剧错误信息的传播。 ## 平台责任与技术伦理 X平台面临着双重挑战:一方面是用户生成的虚假内容泛滥,另一方面是平台自有的AI工具(如Grok)在内容审核和事实核查中的失败。这引发了关于社交媒体平台在冲突时期信息生态中的责任,以及AI系统在设计时如何考虑防止滥用和错误信息传播的重要问题。 随着AI生成内容变得越来越容易制作和传播,平台、开发者和监管机构需要共同应对这一日益严峻的挑战,确保技术不被用于操纵公众认知和加剧冲突。

WIRED AI26天前原文
我体验了Google Docs新推出的Gemini驱动‘帮我创建’工具:它很擅长写‘公司腔’

Google近日为其核心Workspace产品(Docs、Sheets、Slides和Drive)推出了多项由Gemini AI助手驱动的新功能。其中,Docs的“帮我创建”工具尤其引人注目,它能根据提示,通过查阅用户的电子邮件、文件并搜索网络信息,生成完整的文档初稿。 ## 功能亮点:从“帮我写”到“帮我创建” Google Docs的“帮我创建”功能,实际上是此前Chrome浏览器中“帮我写”功能的升级版。它不再局限于简单的句子补全或改写,而是能够生成**完整的初稿**。例如,当用户需要起草一份项目计划、会议纪要或营销文案时,只需提供一个简短的提示,Gemini就能在几秒钟内整合相关信息,输出一个结构完整、内容相关的草稿。 作者在测试中,让Gemini为其生成一份圣帕特里克节的活动行程。结果,Gemini不仅快速搜索了网络上的活动信息,还**自动查阅了作者的Gmail邮件**,准确找到了作者在3月17日的航班预订信息,从而推荐了当地知名的爱尔兰酒吧。这种深度整合个人数据的能力,既展示了AI的便利性,也引发了对隐私的些许担忧。 ## 应用场景与“公司腔”优势 对于职场人士,尤其是需要频繁撰写报告、提案、邮件等文档的员工来说,这款工具的价值显而易见。它能够快速生成符合**企业语境和格式要求**的文本,也就是所谓的“公司腔”。这种文本往往具有结构清晰、用语正式、避免歧义等特点,而Gemini通过分析大量企业文档和网络资料,似乎已经掌握了这一风格。 在Sheets和Slides中,新的AI功能也能基于网络信息和用户过往数据,创建图表、演示文稿的初稿。Drive则新增了**AI文件概览**和更自然的语言搜索能力,帮助用户从海量文件中快速定位所需内容。 ## 行业背景与争议 此次更新是2026年软件行业大趋势的一个缩影:**主流软件开发商正持续将生成式AI功能深度集成到核心用户体验中**。尽管在美国,许多人对这类工具仍抱有疑虑,但效率提升的诱惑力推动着技术快速落地。 目前,这些新功能首先面向**Google AI Pro和Ultra计划的英语订阅用户**开放。这体现了Google在AI商业化上的分层策略,优先服务高端和企业用户。 值得注意的是,像WIRED这样的媒体机构有着严格的编辑标准,**禁止在未披露的情况下使用生成式AI撰写报道**。这反映了行业对AI生成内容在准确性、原创性和伦理上的审慎态度。然而,在其他数字媒体或企业环境中,这类工具的使用门槛可能更低,其普及速度可能会更快。 ## 未来展望:人类与AI的协作 “帮我创建”工具指向了一个未来:**人类将更多地依赖AI来构思和表达想法**。它不再是简单的辅助工具,而是能够参与创作过程的合作伙伴。这可能会改变我们的工作流程,让文档起草从一项耗时任务转变为快速迭代的起点。 当然,这也带来了挑战:如何确保AI生成内容的准确性和合规性?如何平衡效率提升与个人隐私?以及,在AI的帮助下,人类的写作技能和批判性思维是否会退化?这些问题都需要用户和开发者共同思考。 ## 小结 Google Workspace的Gemini新功能,特别是Docs中的“帮我创建”,展示了AI在办公场景下的强大应用潜力。它能够高效生成符合企业语境的文档初稿,显著提升工作效率。然而,其深度整合个人数据的能力也提醒我们,在享受便利的同时,需关注隐私和安全边界。随着AI工具的不断进化,人机协作的新模式正在形成,它将如何重塑我们的工作方式,值得持续观察。

WIRED AI26天前原文
Yann LeCun 融资 10 亿美元,打造能理解物理世界的人工智能

## 一场关于 AI 未来的豪赌 Meta 前首席 AI 科学家、图灵奖得主 **Yann LeCun** 近日宣布,其新创立的公司 **Advanced Machine Intelligence (AMI)** 已完成超过 **10 亿美元** 的融资,公司估值达到 **35 亿美元**。这笔巨额资金将用于开发能够理解物理世界的 **AI 世界模型**。此举不仅是一次商业冒险,更代表了 LeCun 对当前主流 AI 发展路径的公开挑战。 ## 核心理念:智能源于物理世界,而非语言 LeCun 长期以来一直主张,实现人类水平智能的关键在于让 AI 掌握对物理世界的理解,而非仅仅依赖语言。他在接受 WIRED 采访时直言:“那种认为通过扩展大语言模型(LLMs)就能达到人类水平智能的想法完全是胡说八道。” 他认为,人类的大部分推理都根植于对物理世界的认知——我们理解物体如何运动、相互作用,并能基于此进行规划和预测。而当前以 ChatGPT、Claude 等为代表的 LLMs,尽管在语言处理上表现出色,却缺乏这种根本性的物理常识和世界模型。 ## AMI 的目标:构建新一代 AI 系统 根据公司声明,AMI(发音同法语“朋友”)旨在构建“新一代能够理解世界、拥有持久记忆、可以进行推理和规划,并且可控、安全的 AI 系统”。其商业模式并非直接面向消费者,而是计划与**制造业、生物医学、机器人**等拥有大量数据的行业公司合作。 例如,LeCun 设想,AMI 可以为飞机制造商构建一个逼真的飞机发动机世界模型,帮助其优化效率、减少排放或确保可靠性。这种基于物理理解的 AI,有望在复杂系统的设计、模拟和优化中发挥巨大价值。 ## 豪华的投资者阵容与全球布局 此次融资由 **Cathay Innovation、Greycroft、Hiro Capital、HV Capital 和 Bezos Expeditions** 等机构共同领投。其他知名支持者还包括亿万富翁 **Mark Cuban**、前谷歌 CEO **Eric Schmidt** 以及法国电信大亨 **Xavier Niel**。强大的资本背书显示了市场对 LeCun 愿景的认可。 AMI 从成立之初就定位为全球性公司,计划在**巴黎、蒙特利尔、新加坡和纽约**设立办公室。LeCun 本人将在继续担任纽约大学教授的同时,领导这家初创公司。这也是他于 2025 年 11 月离开 Meta 后的首次商业尝试。 ## 行业意义:一场范式之争 LeCun 的创业,实质上是对 OpenAI、Anthropic 乃至其老东家 Meta 所代表的“**规模至上**”路线的直接挑战。这些巨头普遍相信,通过不断扩展 LLMs 的规模和数据,最终能够实现人类水平甚至超人工智能。 作为 2018 年图灵奖得主和现代 AI 先驱,LeCun 的质疑具有相当的分量。他并非否定 LLMs 的价值,而是认为它们存在根本性局限,无法单独通向真正的通用智能。AMI 的成立,标志着 AI 领域内部关于“**智能本质**”和“**技术路径**”的争论,已经从学术讨论走向了商业实践与资本押注。 这场竞赛的结果,将深远影响未来十年 AI 技术的发展方向与应用格局。

WIRED AI26天前原文
英伟达计划推出开源AI智能体平台,瞄准企业级应用

据知情人士向WIRED透露,**英伟达(Nvidia)** 正计划推出一款名为 **NemoClaw** 的开源AI智能体平台。该平台旨在让企业能够部署AI智能体,为其员工执行任务,且无论企业产品是否运行在英伟达芯片上,均可访问此平台。此举正值英伟达下周在圣何塞举行年度开发者大会前夕,公司已与包括 **Salesforce、Cisco、Google、Adobe 和 CrowdStrike** 在内的多家企业接触,寻求建立合作伙伴关系。 ### 平台定位与核心功能 NemoClaw 被定位为一个开源平台,允许企业软件公司派遣AI智能体执行工作任务。平台将提供**安全和隐私工具**,以应对企业环境中使用AI智能体可能带来的风险。知情人士表示,合作伙伴可能通过为项目贡献代码,获得免费、早期访问权限。 ### 行业背景:AI智能体的兴起与争议 英伟达此举顺应了AI行业对“claws”(即开源AI工具,可在用户本地机器上运行并执行序列任务)的兴趣增长。这类工具常被描述为**自我学习型**,能够随时间自动改进。例如,今年早些时候,名为 **OpenClaw** 的AI智能体(最初称为Clawdbot,后改名Moltbot)因其能在个人电脑上自主运行并完成用户工作任务而受到硅谷关注,最终被OpenAI收购。 与OpenAI和Anthropic等公司改进的聊天机器人(仍需较多人工干预)不同,专用AI智能体或claws设计用于**在较少人工监督下执行多步骤任务**。然而,在企业环境中使用claws存在争议:WIRED此前报道称,包括Meta在内的一些科技公司已要求员工避免在工作电脑上使用OpenClaw,原因在于智能体的不可预测性和潜在安全风险。 ### 战略意义与市场影响 英伟达推出NemoClaw平台,标志着其从硬件供应商向软件和平台服务商的进一步拓展。通过开源策略,英伟达可能吸引更多企业参与生态建设,增强其在AI基础设施领域的竞争力。同时,与Salesforce等企业的潜在合作,有助于推动AI智能体在企业级场景的落地,例如自动化工作流程、数据分析和客户服务等。 ### 不确定性因素 目前,英伟达与上述企业的接触是否已达成正式合作伙伴关系尚不明确。公司及多数相关企业代表未对评论请求作出回应。此外,开源平台的治理模式、具体发布时间表以及如何平衡开放性与安全性,仍有待观察。 **小结**:英伟达的NemoClaw平台若成功推出,可能为企业AI应用带来新范式,但需克服安全合规挑战,并在竞争激烈的AI代理市场中确立差异化优势。

WIRED AI26天前原文
Anthropic 警告:五角大楼争端或致其损失数十亿美元

近日,AI 初创公司 Anthropic 在法庭文件中披露,由于美国国防部将其列为供应链风险,公司正面临严重的商业危机。这一事件不仅威胁到其与五角大楼相关的数亿美元预期收入,更可能波及更广泛的客户群,导致潜在损失高达数十亿美元。 ## 事件背景:供应链风险标签引发连锁反应 上月底,美国国防部将 Anthropic 标记为供应链风险,这一决定迅速在商业领域引发震动。Anthropic 高管在法庭文件中指出,现有客户和潜在合作伙伴纷纷要求重新谈判合同条款,甚至直接退出交易。公司首席财务官 Krishna Rao 在周一提交的法庭文件中警告,今年与五角大楼相关的预期收入中,已有数亿美元处于风险之中。 更严峻的是,如果政府进一步施压,迫使广泛企业(无论是否与军方有关联)停止与 Anthropic 合作,公司最终可能损失数十亿美元的销售额。Rao 透露,自 2023 年商业化以来,Anthropic 的累计销售额已超过 **50 亿美元**。 ## 商业影响:客户信任危机与具体案例 Anthropic 首席商务官 Paul Smith 提供了多个近期案例,说明合作伙伴的担忧如何转化为实际行动: * **金融服务领域**:一家金融服务客户因供应链风险标签暂停了价值 **1500 万美元** 的交易谈判。 * **大额交易受阻**:两家领先的金融服务公司拒绝签署总价值 **8000 万美元** 的合同,除非获得可单方面无理由取消合同的权利。 * **零售业反应**:一家连锁超市取消了销售会议,直接引用了该风险标签作为理由。 Smith 总结道:“所有这些行为都反映出(客户)对 Anthropic 的深度不信任,以及与之关联的日益增长的恐惧。” ## 公司现状:高增长与高投入下的脆弱性 Anthropic 的营收随着其 **Claude 模型** 在性能(如代码生成等领域展现先进能力)上超越竞争对手而激增。然而,公司也面临着巨大的运营压力: * **巨额投入**:Rao 明确指出,Anthropic 在训练和部署模型上已投入超过 **100 亿美元**。 * **持续亏损**:尽管销售额可观,但高昂的计算基础设施成本导致公司仍处于深度亏损状态。 此次供应链风险争议,恰好暴露了这家高估值 AI 独角兽在快速扩张过程中的商业脆弱性——政府监管或政策风向的变动,可能迅速侵蚀其辛苦建立的客户基础和收入流。 ## 法律行动与行业启示 Anthropic 高管的声明是其法律反击的一部分。公司正在寻求一项初步禁令,允许其在关于供应链风险问题的诉讼解决前,继续与美国国防部开展业务。Anthropic 已向特朗普政府提起两起诉讼: 1. 在旧金山联邦法院提起的诉讼指控政府侵犯了公司的言论自由权。 2. 在华盛顿特区联邦上诉法院提起的另一案件则指控国防部行为不公。 **小结** Anthropic 的案例为整个 AI 行业敲响了警钟。在技术竞争白热化的同时,地缘政治和监管风险正成为影响企业生存与发展的关键变量。对于依赖政府合同或处于敏感技术领域的 AI 公司而言,构建多元化的客户结构、加强合规沟通、并评估潜在的政策风险,已变得前所未有的重要。这场争端最终如何裁决,不仅关乎 Anthropic 的财务前景,也可能为未来 AI 公司与政府关系的互动设定先例。

WIRED AI27天前原文
OpenAI与谷歌员工联名提交法庭之友意见书,支持Anthropic对抗美国政府

## 科技巨头员工罕见联手,为AI伦理与创新发声 超过30名来自OpenAI和谷歌的员工,包括谷歌DeepMind首席科学家Jeff Dean,于本周一联名提交了一份法庭之友意见书,支持人工智能初创公司Anthropic在其与美国政府的法律纠纷中。这一行动发生在Anthropic起诉美国国防部及其他联邦机构数小时之后,旨在支持Anthropic申请临时限制令,以在诉讼期间继续与军事合作伙伴合作。 **法庭之友意见书**是一种由非案件直接当事方、但具备相关专业知识的个人或团体提交的法律文件。签署者强调,他们是以个人身份签署,不代表其雇主的观点。 ### 事件核心:五角大楼的“供应链风险”认定 此次法律冲突的导火索是**美国国防部将Anthropic认定为“供应链风险”**。这一制裁措施严重限制了Anthropic与军事承包商合作的能力,在其与五角大楼的谈判破裂后生效。Anthropic因此提起诉讼,并寻求临时限制令。 联名员工在意见书中指出,五角大楼的这一决定“在行业中引入了不可预测性,损害了美国的创新和竞争力”,并且“抑制了关于前沿AI系统利弊的专业辩论”。他们认为,如果五角大楼不再希望受合同条款约束,本可以简单地终止与Anthropic的合同。 ### 签署者阵容与行业关切 除了Jeff Dean,签署者还包括谷歌DeepMind的研究员Zhengdong Wang、Alexander Matt Turner和Noah Siegel,以及OpenAI的研究员Gabriel Wu、Pamela Mishkin和Roman Novak等。 意见书特别强调了Anthropic在谈判中提出的“红线”要求——包括其AI**不得用于大规模国内监控和自主致命武器的开发**——是合理的关切,需要足够的安全护栏。文件写道:“在缺乏公共法律的情况下,AI开发者对其系统使用施加的合同和技术要求,是防止其灾难性误用的重要保障。” ### 更深层的行业信号 这一事件并非孤立。报道提到,其他几位AI领袖也已公开质疑五角大楼的决定。这反映出**AI行业内部对于技术军事化应用、政府监管边界以及创新环境稳定性日益增长的共同忧虑**。顶尖公司的研究人员跨越公司界限联合发声,凸显了在国家安全与科技伦理交叉地带,专业社群试图塑造规则与对话的努力。 ### 潜在影响与不确定性 联名信警告:“如果允许(制裁)继续进行,这种惩罚一家领先美国AI公司的努力无疑将对美国在人工智能及其他领域的工业和科学竞争力产生后果。”这起案件的结果,可能为美国政府如何与秉持严格伦理准则的AI公司互动树立先例,并影响未来AI技术在敏感领域的合作模式。 目前,OpenAI和谷歌均未立即回应媒体的置评请求。案件的后续发展,以及行业与政府之间的动态,值得持续关注。

WIRED AI27天前原文
Anthropic起诉美国国防部:供应链风险认定引发AI军事应用争议

## Anthropic起诉美国国防部:供应链风险认定引发AI军事应用争议 **Anthropic**,这家以开发Claude系列AI模型而闻名的初创公司,本周一正式向美国联邦法院提起诉讼,起诉对象包括**美国国防部**及其他联邦机构。诉讼的核心争议点在于:国防部将Anthropic认定为“**供应链风险**”的行政决定是否合法。 ### 事件背景:从合同争议到联邦禁令 这场法律纠纷并非突然爆发。根据公开信息,美国国防部与Anthropic之间关于其生成式AI技术(如Claude)在军事应用(包括**自主武器系统**)中的使用限制问题,已公开争论数周。上周,五角大楼正式对Anthropic实施制裁,这标志着双方的矛盾从合同层面的分歧,升级为一项具有广泛影响的联邦禁令。 Anthropic首席执行官**Dario Amodei**在周四的博客文章中明确表达了公司的立场:“我们认为这一行动在法律上站不住脚,除了诉诸法庭,我们别无选择。” ### 诉讼核心:宪法权利与行政越权 Anthropic在向加州联邦法院提交的诉状中,请求法官撤销国防部的风险认定,并阻止联邦机构执行相关禁令。诉状援引了宪法原则,指控政府“滥用其巨大权力,因公司的受保护言论而对其进行惩罚”。 hropic强调,诉诸司法是“捍卫自身权利、制止行政机构非法报复行动的最后手段”。 **关键法律论点**: * **言论自由**:Anthropic认为,政府因其在技术使用限制上的立场(可被视为一种“言论”)而实施惩罚,涉嫌违宪。 * **程序正当性**:公司挑战认定程序的合法性与公正性。 ### 商业影响:潜在的重大经济损失 这项风险认定对Anthropic的商业前景构成了直接威胁: 1. **直接政府合同损失**:Anthropic可能面临每年来自五角大楼及其他美国政府部门的数亿美元收入损失。 2. **间接生态影响**:许多将Claude集成到其服务中,再销售给联邦机构的软件公司,也可能因此终止与Anthropic的合作。据报道,已有部分Anthropic客户因国防部的风险认定而开始寻求替代方案。 不过,Amodei在博客中也试图安抚市场,称“绝大多数”客户无需做出改变。他解释,政府的认定“明确仅适用于客户在与军方签订的直接合同中使用Claude的情况”,军事承包商对Anthropic技术的通用使用应不受影响。 ### 法律挑战:一场艰难的战斗 尽管Anthropic态度坚决,但法律专家普遍认为其在法庭上面临一场硬仗。专门研究政府合同法的律师指出,授权国防部将科技公司标记为供应链风险的相关法规,并未为上诉留下太多空间。 Snell & Wilmer律师事务所的合伙人**Brett Johnson**分析道:“政府**100%有权设定合同参数**。”他认为,五角大楼同样有权表达对某产品的关切,如果该产品被其任何承包商使用,都可能被视为带来风险。这暗示了政府在国防采购领域的裁量权非常广泛。 ### 行业观察:AI伦理、商业与国家安全的三重博弈 此案远不止于一家公司与一个政府部门的法律纠纷,它折射出当前AI行业发展的几个深层矛盾: * **AI伦理与军事应用的边界**:Anthropic对技术用于自主武器的限制立场,与国防部寻求先进AI能力的需求之间存在根本冲突。这引发了关于AI公司是否有权(或义务)限制其技术用途的广泛讨论。 * **初创公司与国家机器的力量对比**:作为一家估值高昂但仍在发展中的初创公司,Anthropic挑战庞大的国防官僚体系,其结果将影响其他AI公司在与政府合作时的风险评估和谈判策略。 * **“供应链安全”定义的扩张**:将一家纯软件AI公司认定为“供应链风险”,反映了国家安全考量在数字时代的延伸。这可能会为其他涉及关键软件、算法或数据服务的科技公司树立一个先例。 截至发稿,**美国国防部**(亦称战争部)及**白宫**尚未就Anthropic的诉讼发表评论。 **小结**:Anthropic诉美国国防部一案,已成为观察AI治理、商业自由与国家安全之间如何平衡的关键案例。无论最终判决如何,它都将在AI产业政策、政府-企业关系以及技术伦理的法律框架方面产生深远回响。案件的进展,值得所有关注AI未来发展的业内人士持续追踪。

WIRED AI27天前原文
Feeld:从“怪咖”专属约会应用,到被批“平庸地狱”的转变

## 一个“怪咖”天堂的变迁 Feeld,这款2014年以“3nder”之名诞生的约会应用,最初定位明确:为那些在传统约会应用中找不到归属感的人群服务。它的早期口号直白而大胆——“Tinder,但适合喜欢三人行的人”。无论是寻找双灵伴侣、对束缚与伦理非一夫一妻制感兴趣的“顽皮”人士,还是任何不符合主流约会应用框框的群体,Feeld都曾是他们的避风港。用用户的话说,这里曾是“怪咖”(freaks)的乐园。 然而,风向正在改变。 ## 数据背后的“主流化”浪潮 根据Feeld公司提供的数据,从2021年到2025年,其会员数量增长了**368%**,同期新用户激增近**200%**。更值得注意的是用户行为模式的变化。在2025年12月至2026年1月中旬期间,新用户中选择“寻找社群”(finding community)作为关系模式的占比飙升了**257%**,成为平台上增长最快的关系模态。 这些数字背后,是一个清晰的趋势:Feeld正在吸引越来越多拥有“香草”(vanilla,指传统、无特殊癖好)偏好的用户。对于许多老用户而言,这意味着一场身份危机。 ## 老用户的困惑与失落 喜剧演员阿莉丝·莫拉莱斯的经历颇具象征意义。2025年夏天离婚后,她开始使用Feeld寻找随意的关系。她欣赏平台上人们的“彻底诚实”。但一次匹配让她震惊不已——她刷到了一位自称“ICE(美国移民及海关执法局)探员”的男性用户,个人简介写着“嘿,我是保罗!从外地来的ICE探员,找点乐子 :)”。当时,她所在的布鲁克林地区正有ICE的执法行动。莫拉莱斯感到难以置信:“这感觉太不对劲了……Feeld因为其性积极的特性和所包容的文化,本应是这类人最不可能出现的地方。” 虽然她的遭遇极端,却折射出许多资深用户的普遍感受:这个曾经专为非常规、对特殊性癖好友好人群设计的空间,正在变得面向所有人。一些用户开始用“**Normie Hell**”(平庸地狱)来形容这种变化,表达他们对应用失去独特性和安全感的担忧。 ## 平台的野心与挑战 Feeld首席执行官安娜·基洛娃对此有着不同的视角。她认为平台的增长证明了其使命的广泛吸引力:“我们能够为人们做一些真正重大而重要的事情……我们所代表的很多东西(具有普遍意义)。”显然,管理层将用户基数的扩大视为成功和影响力的标志。 但这引发了一个核心矛盾:当一个以边缘社群起家、依靠高度特定文化和信任感的应用走向大众市场时,如何平衡规模扩张与核心社区文化的维系? **增长的代价是什么?** 是更广泛的接纳和影响力,还是独特性的稀释和早期用户归属感的流失?当“寻找社群”成为快速增长的需求时,这个“社群”的定义是否已经悄然改变? ## 行业镜鉴:小众应用的“破圈”悖论 Feeld的处境并非个例。在社交和约会应用领域,许多从小众、垂直社群起步的产品都面临类似的“破圈”挑战。扩大用户基础往往意味着模糊最初的锋利定位,以吸引更广泛但需求可能截然不同的群体。这既能带来商业上的成功,也可能引发核心用户的反弹,认为平台“背叛”了立身之本。 对于Feeld而言,其最初的魅力在于提供了一个**高度包容、无需伪装**的场域。当大量拥有传统偏好的用户涌入,这种氛围是否还能维持?平台算法、社区规范和整体体验是否会不可避免地向着“大众口味”倾斜? 目前,Feeld正处在这个十字路口。它证明了针对特定需求的应用拥有巨大的市场潜力,但也正亲身经历着规模扩张带来的文化阵痛。这场“怪咖”与“主流”的碰撞,最终将把Feeld带向何方,是成为又一个泛化的社交平台,还是能在扩张中守住那份独特的“激进诚实”,将是其未来发展最值得关注的看点。

WIRED AI27天前原文
AI能否终结风险投资家?

风险投资家们正押注人工智能将颠覆几乎所有行业,但他们是否准备好迎接AI颠覆自己的领域?去年秋天,当风险投资家们向人工智能领域投入创纪录的资金时,一群投资者聚集在一起评估一家新创公司。这家名为Infinity Artificial Intelligence Institute的公司开发了自动优化AI模型的软件,使其更快、更便宜。创始团队看起来很强,市场也在迅速扩张。一半的投资者持谨慎态度;另一半则看到了美元符号。其中一位称这笔交易是“绝对的爆款”。这家初创公司是真实的,风险投资家们在其种子轮投资的10万美元也是真实的。但这些风险投资家本身都是AI代理,属于一个名为ADIN(自主交易投资网络)的新平台的一部分。ADIN于2025年推出,使用AI取代风险投资交易中的人类分析师。输入初创公司的推介材料,就能输出对其商业模式和创始团队的详细分析、尽职调查问题和合规风险列表、总可寻址市场估计以及建议估值。ADIN拥有大约十几个不同的代理投资者,每个都有独特的个性和投资理念。Tech Oracle关注初创公司的底层技术;Unit Master评估财务基本面;Monopoly Maker(大致基于Peter Thiel的理念)寻找市场主导地位。当大多数代理喜欢一家初创公司时,他们会建议ADIN的基金应分配多少资金给这笔交易。该平台大约在一小时内完成这一过程,而风险投资公司的分析师则需要数天或数周。ADIN母公司Tribute Labs的联合创始人Aaron Wright表示:“风险投资游戏的成功率不高。”当前的方法——一种凭直觉猜测谁和什么将成为明天的伟大独角兽——仅在约1%的情况下产生“全垒打”,即初创公司回报投资资本的10倍或更多。四分之三的风险投资交易甚至无法收回资本成本。在Wright看来,AI模型可以显著提高这些几率。他认为风险投资正在进入其“点球成金”时代,定量方法将超越人类直觉,每个人开始打出更多全垒打。Wright说:“这些系统将越来越能够淘汰糟糕的项目,专注于更成功的项目,并降低运营这些企业的成本。”他认为,在几年内,AI代理可能成为一些最好的风险投资家。 ## AI如何重塑风险投资 ADIN平台的核心在于其代理投资者系统。这些AI代理不仅自动化了分析过程,还引入了多样化的投资视角。例如,Tech Oracle专注于技术可行性,Unit Master则深入财务细节,而Monopoly Maker则从市场垄断潜力角度评估。这种分工协作模拟了人类投资团队的多维度思考,但以更高效、更一致的方式执行。 ## 风险投资的“点球成金”时刻 Aaron Wright将当前的风险投资比作棒球运动中的“点球成金”现象——通过数据驱动的方法颠覆传统直觉。在风险投资中,人类直觉往往导致高失败率:仅1%的交易能实现10倍以上回报,而75%的交易甚至无法保本。AI的介入有望通过以下方式改变这一现状: - **淘汰低质量项目**:AI可以快速识别商业模式或团队中的潜在缺陷,减少资源浪费。 - **聚焦高潜力机会**:通过数据分析和模式识别,AI能更准确地预测哪些初创公司可能成功。 - **降低运营成本**:自动化分析减少了人力需求,使投资过程更经济高效。 ## 挑战与不确定性 尽管ADIN等平台展示了AI在风险投资中的潜力,但这一转型仍面临挑战: - **数据依赖**:AI模型的准确性高度依赖于训练数据的质量和广度,而初创公司数据往往有限或不透明。 - **人类直觉的价值**:风险投资中的人际网络、行业洞察和战略指导等“软技能”是否可被AI完全替代尚存疑问。 - **伦理与偏见**:AI系统可能继承或放大训练数据中的偏见,导致投资决策不公。 ## 未来展望 Wright预测,AI代理将在几年内成为顶尖的风险投资家。这可能意味着风险投资行业的根本性变革:从依赖少数明星投资人的“艺术”,转向基于数据的“科学”。然而,这并不意味着人类风险投资家会完全消失。更可能的场景是AI与人类协作,AI处理数据密集型任务,而人类专注于战略决策和关系管理。 **小结**:AI正在悄然渗透风险投资领域,ADIN等平台通过代理投资者系统展示了自动化分析的潜力。尽管面临数据、伦理和人类直觉保留等挑战,但AI有望推动风险投资进入更高效、数据驱动的新时代。未来,风险投资家或许不会被“终结”,但他们的角色将因AI而重新定义。

WIRED AI27天前原文
这款干扰器想屏蔽“永远在听”的AI穿戴设备,但物理定律可能让它难以奏效

## 对抗“永远在听”的AI穿戴设备:Deveillance推出Spectre I干扰器 一家名为**Deveillance**的初创公司本周宣布推出其首款产品——**Spectre I**,一款旨在干扰附近设备录音的便携式桌面球形设备。这款麦克风干扰器结合了**超声波频率发射器**和**AI智能技术**,不仅试图阻止设备捕捉语音,还能检测并记录附近的麦克风。公司预计在**2026年下半年**以**1,199美元**的价格销售这款产品。 ### 产品理念与市场反响 Spectre I的发布在社交媒体上引发了热烈讨论。支持者将其视为对抗日益增长的“永远在听”AI穿戴设备(如亚马逊旗下的Bee AI手环或Friend吊坠)的赛博朋克式抵抗技术。然而,它也遭到了X平台上众多蓝V认证评论家的质疑,他们认为这听起来“好得不像真的”。 Deveillance创始人、哈佛大学毕业生**Aida Baradari**表示:“我没想到它会这么火。我很感激有机会从事这项工作,也很感激人们真的关心这个问题。”她开发这款设备的动机源于对AI热潮带来的“永远在听”设备的担忧,强调人们应该有权选择分享什么,尤其是在对话中。 ### 技术挑战与物理限制 尽管Spectre I的理念引人注目,但其实际效果面临**物理定律的严峻挑战**。超声波干扰技术理论上可以通过发射特定频率的声波来干扰麦克风,但现实中的障碍包括: - **环境复杂性**:不同设备(如智能手机、智能音箱、穿戴设备)的麦克风灵敏度、频率响应和抗干扰能力差异巨大。 - **距离与穿透力**:超声波在空气中衰减较快,可能难以有效覆盖较远距离或穿透障碍物。 - **设备多样性**:市场上存在无数品牌和型号的录音设备,单一干扰方案难以全面应对。 这些因素使得Spectre I在实际场景中的可靠性存疑,这也是许多专家持怀疑态度的原因。 ### 隐私焦虑的时代背景 Spectre I的推出反映了当前社会对隐私的深切焦虑。在美国,政府监控日益普遍,例如移民和海关执法局(ICE)正在构建从社交媒体到手机数据的监控系统。私营部门同样存在张力,大型科技公司在为ICE提供支持的同时,也在收集、购买和使用个人数据的每一碎片。 近期,家庭安全摄像头公司Ring因一则关于用摄像头寻找走失狗的超级碗广告而引发公众对隐私的强烈反弹,迫使公司撤回相关计划。这凸显了公众对无处不在的监控技术的敏感和抵制。 ### 行业意义与未来展望 Spectre I的出现标志着AI穿戴设备普及下的**隐私保护需求**正在催生新的市场细分。尽管其技术可行性有待验证,但它提出了一个关键问题:在“永远在听”的AI时代,如何平衡便利性与隐私权? 如果Spectre I能够部分实现其目标,它可能为高隐私需求场景(如企业会议室、医疗咨询室或敏感政治讨论)提供一种补充防护工具。然而,其成功与否将取决于实际测试结果、法规适应性以及用户接受度。 目前,Spectre I仍处于开发阶段,预计2026年的上市将面临技术验证和市场考验。无论结果如何,这场关于隐私与监控的对话已经因Deveillance的尝试而更加活跃。

WIRED AI29天前原文
为什么Alexa+如此糟糕?一位用户一个月的厨房体验报告

当亚马逊在2025年重新设计其知名语音助手,将生成式AI置于核心位置,推出**Alexa+**时,许多用户期待着一个更智能、更自然的交互体验。然而,一位用户在厨房墙上安装了**Echo Show 15**,并试用Alexa+超过一个月后,得出了截然不同的结论:这个AI助手不仅不可靠,还常常让人感到沮丧。 ## 从期待到失望:一个月的厨房体验 用户最初对Echo Show 15充满热情,期待它能作为免提娱乐设备,在烹饪时播放音乐或YouTube视频。但现实是,Alexa+的表现更像一个“不可预测的幼儿”,半途而废地完成任务。尽管它仍处于早期访问阶段,但基本可靠性严重不足,导致用户每次交互都忍不住叹气,最终不得不走向遥控器或触摸屏手动完成操作。 ## Alexa+的核心问题:不可预测性与固执己见 亚马逊将Alexa+定位为能理解更复杂请求、提供更个性化体验、支持自然对话而非僵硬命令的AI助手。但在实际使用中,它却显得“吹毛求疵”,用户必须精确措辞才能偶尔获得想要的结果。例如,当请求播放Charli XCX的音乐时,Alexa+却播放了Sombr的“Back to Friends”;想要The Black Keys,却得到了Alabama Shakes。这种不可预测性让家庭互动变成了猜谜游戏。 更令人困扰的是,Alexa+有时会将请求误解为YouTube搜索,留下一堆结果让用户自行选择,完全违背了“免提”便利的初衷。用户发现,只有像“播放Lucy Dacus的歌曲‘Best Guess’”这样高度具体的指令,才能勉强奏效。 ## 生成式AI的落地挑战:理想与现实的差距 Alexa+的失败凸显了生成式AI在消费级产品中面临的普遍挑战: - **可靠性缺失**:AI模型可能因训练数据偏差或上下文理解不足,导致输出不稳定。 - **用户体验割裂**:过度追求“自然对话”反而增加了交互复杂度,用户需要学习新规则。 - **场景适配不足**:亚马逊强调Alexa+能自动化购物、叫车等任务,但对许多用户而言,核心需求只是简单的娱乐控制。 ## 行业反思:AI助手该如何进化? Alexa+的案例提醒整个AI行业,技术升级不能以牺牲基本可用性为代价。当前,许多AI产品急于整合生成式AI,却忽略了: 1. **渐进式改进**:应在保持原有功能稳定的基础上,逐步引入新能力。 2. **用户反馈闭环**:早期访问阶段需快速收集并响应真实场景中的问题。 3. **场景化优化**:不同使用环境(如厨房、客厅)可能需要差异化的AI行为设计。 值得注意的是,亚马逊允许用户通过说“退出Alexa+”回退到旧版本,但这可能只是临时措施。未来若强制迁移,用户体验风险将进一步放大。 ## 小结:AI便利性的悖论 Alexa+的糟糕体验揭示了一个深层矛盾:AI越试图变得“智能”和“自然”,反而可能越让人感到挫败。当技术不够成熟时,强行推广可能适得其反。对于消费者而言,选择AI产品时,或许更应关注其核心功能的可靠性,而非营销宣传中的“革命性”承诺。毕竟,在厨房里,一个能准确播放歌曲的助手,远比一个会聊天但常出错的“桥怪”更有价值。

WIRED AI1个月前原文
专访杰克·多西:为何裁员40%?他要将Block重塑为“智能体”

近日,Block(原Square)联合创始人兼CEO杰克·多西宣布裁减近40%的员工,这一决定在科技界引发广泛关注。在独家专访中,多西解释称,这是为了将公司“重塑为一个智能体”,以适应AI技术带来的结构性变革。 ## 裁员背后的AI驱动逻辑 多西表示,此次裁员并非简单的“人员优化”,而是基于对AI工具快速发展的战略判断。他认为,**AI技术正在彻底改变公司的组织方式**,未来企业将不再需要传统的大规模人力结构。多西强调:“这些工具展示的未来,完全改变了公司的结构方式。我不知道最终结果会怎样,但我知道我们必须走在前面。” 这一观点呼应了近期科技行业的一个趋势:越来越多的公司开始探索如何将AI深度整合到业务流程中,而不仅仅是作为辅助工具。多西的激进举措,实际上是对这一趋势的提前布局。 ## Block的现状与转型压力 尽管Block在上一季度实现了近**30亿美元的利润**,市值达到**390亿美元**,员工规模一度达到1万人,但多西认为,过去的成功模式未必适应未来。他长期倡导开源协议和去中心化理念,对新技术(如比特币、AI)的拥抱速度远超同行。 在专访中,多西被问及是否只是“以AI为借口裁减臃肿团队”,他否认了这一说法,并强调这是为了**让公司变得更敏捷、更智能**。他提到,其他公司很可能也会跟进类似的重组。 ## 多西的管理哲学与行业影响 多西的管理风格一向特立独行:他过着游牧式生活,留着标志性的胡须,推崇冥想,并长期致力于去中心化技术的推广。此次裁员决定,再次体现了他**忽略传统企业惯例**的特点。 从行业角度看,多西的举动可能预示着一次更广泛的转型。随着AI工具能力的提升,企业是否真的需要维持庞大的人力团队?多西的答案是“否”。他认为,未来的公司应该围绕AI层进行重构,用更少的员工实现更高的效率。 ## 争议与不确定性 尽管多西给出了明确的AI驱动理由,但外界仍存在质疑: - 这是否只是将裁员“AI化包装”? - 大规模裁员会否影响Block的创新能力? - 其他企业是否会盲目效仿,引发行业震荡? 多西并未回避这些问题,但他坚持认为,**主动适应技术变革比被动应对更重要**。他承认不确定最终结果,但强调必须提前行动。 ## 小结 杰克·多西的裁员决定,不仅是一次企业结构调整,更是对AI时代组织形态的前瞻性实验。在利润丰厚的背景下主动“瘦身”,体现了他对技术趋势的敏感与果断。无论这一决策最终被证明是远见还是冒险,它都已为科技行业提供了一个重要的讨论案例:当AI成为核心生产力,公司究竟该如何定义自己的“智能”边界?

WIRED AI1个月前原文