SheepNav

AI 资讯

每日聚合最新人工智能动态

## 沃尔玛推出重磅促销,挑战亚马逊春季大促 随着亚马逊2026年春季大促(Big Spring Sale)的临近,零售巨头沃尔玛不甘示弱,推出了一系列极具竞争力的优惠活动,旨在吸引消费者并抢占市场份额。据ZDNet AI资讯报道,沃尔玛的促销覆盖了多个热门品类,包括苹果产品、Roku设备等,部分优惠甚至优于亚马逊的同类促销,为消费者提供了更多选择。 ### 促销亮点:苹果与Roku设备成焦点 沃尔玛此次促销的核心亮点集中在**苹果产品**和**Roku设备**上。苹果产品作为高端消费电子领域的代表,一直是促销活动的热门,沃尔玛可能提供iPhone、iPad或MacBook等设备的折扣,以吸引追求性价比的消费者。Roku设备则瞄准了流媒体娱乐市场,其价格优势可能帮助沃尔玛在智能家居和娱乐领域与亚马逊的Fire TV等产品竞争。 ### 行业背景:AI驱动的零售竞争加剧 在AI技术快速发展的背景下,零售行业的竞争日益激烈。亚马逊凭借其AI算法和物流优势,常年主导在线促销活动,但沃尔玛近年来通过投资AI和自动化技术,提升了库存管理和个性化推荐能力。此次促销不仅是价格战,更是两家巨头在AI应用场景——如需求预测、动态定价和客户服务——上的间接较量。沃尔玛的举措可能基于AI分析的市场数据,精准定位消费者需求,以应对亚马逊的春季攻势。 ### 消费者视角:如何把握优惠时机 对于消费者而言,沃尔玛的促销提供了更多购物选项。建议在购买前: - **比较价格**:利用比价工具或关注实时更新,确保获得最优折扣。 - **关注库存**:热门产品可能快速售罄,提前规划购买时间。 - **评估需求**:结合自身需求,避免冲动消费,尤其是在AI设备等科技产品上。 ### 小结:促销背后的战略意义 沃尔玛此次促销不仅是为了短期销售增长,更是长期战略的一部分。通过提供优于亚马逊的优惠,沃尔玛旨在增强品牌忠诚度,并在AI赋能的零售生态中巩固地位。随着2026年春季大促的展开,消费者将受益于更激烈的竞争,而行业观察者则可关注两家公司在AI技术应用上的进一步动向。 *注:具体促销细节和产品列表未在原始摘要中提供,建议关注沃尔玛官方渠道获取最新信息。*

ZDNet AI13天前原文

在图形用户界面(GUI)主导的现代计算环境中,一个名为**Peropesis**的纯命令行Linux发行版显得格外独特。这个操作系统不仅没有桌面环境,甚至只能以“实时实例”方式运行——无法安装应用程序,也无法进行永久性安装。然而,正是这种极简主义的设计,使其成为学习和掌握Linux命令行界面(CLI)的绝佳工具。 ## 什么是Peropesis? Peropesis的名字来源于“Personal Operating System”(个人操作系统)。与大多数现代Linux发行版不同,它彻底摒弃了图形界面,用户只能通过命令行与系统交互。更特别的是,它只能作为“实时系统”启动,这意味着每次启动都是一个干净的环境,无法像传统操作系统那样安装软件或保存持久性更改。 启动Peropesis后,用户会直接面对登录提示。默认情况下,使用**root**用户登录(初始无密码),登录后第一件事通常就是通过`passwd`命令设置密码——这本身就是一次命令行实践。 ## 为何它能有效提升Linux技能? ### 1. 强制沉浸于命令行环境 Peropesis的设计哲学是“不提供任何帮助”——没有图形界面作为退路,用户必须通过命令行完成所有操作。这种“沉浸式”学习环境迫使学习者真正理解并运用CLI命令,从文件管理、进程控制到网络配置,一切都需通过终端完成。 ### 2. 安全的实验沙盒 由于Peropesis只能以实时模式运行在虚拟机中,它成为了一个完美的实验环境。用户可以在其中尝试各种命令和脚本,即使操作失误导致系统崩溃,也只需重启虚拟机即可恢复原状。这种零风险的环境鼓励大胆尝试和探索。 **建议的学习流程**:启动Peropesis虚拟机后,立即创建一个快照。之后,你可以随意练习命令,每当遇到问题或想重新开始时,只需回滚到快照点,就像拥有一个随时可重置的学习实验室。 ### 3. 专注于核心技能 许多Linux初学者过度依赖图形工具,而忽视了命令行这一更强大、更高效的核心技能。Peropesis剥离了所有图形元素,让学习者直接面对Linux的“本质”——命令行。这种专注有助于建立扎实的基础,理解Linux的工作原理,而非仅仅学习某个特定桌面环境的用法。 ## 在AI与云计算时代的特殊价值 随着人工智能和云计算的快速发展,命令行技能的重要性不降反升: - **服务器管理**:大多数云服务器和AI训练环境都是无图形界面的Linux系统,命令行是唯一的管理方式。 - **自动化与脚本**:AI工作流、数据处理管道和部署脚本通常通过命令行工具和脚本(如Bash、Python)实现。 - **容器与DevOps**:Docker、Kubernetes等现代技术重度依赖命令行操作。 掌握命令行不仅能提升日常效率,更是深入技术栈、理解系统底层运作的关键。Peropesis这样的工具,通过“减法”设计,反而强化了这一核心能力的学习路径。 ## 谁适合使用Peropesis? - **Linux初学者**:希望打下坚实命令行基础的新手。 - **已有基础但想深化CLI技能的用户**:摆脱对GUI的依赖,提升终端操作熟练度。 - **教育工作者**:作为教学工具,让学生专注于命令行的本质。 - **开发者和运维人员**:在安全环境中练习高级命令和脚本。 ## 小结 Peropesis可能永远不会成为主流桌面操作系统,但它精准地服务于一个特定目标:**命令行技能培养**。在技术日益复杂的今天,这种回归基础、强化核心能力的工具反而显得珍贵。它提醒我们,有时最好的学习方式不是添加更多功能,而是剥离干扰,直面本质。 对于任何希望真正掌握Linux——尤其是在AI、云计算和自动化领域深入发展的人——花时间在Peropesis这样的环境中磨练命令行技能,或许是一项高回报的投资。

ZDNet AI13天前原文

OpenAI 于周二宣布发布一套专为青少年安全设计的提示词(prompts),旨在帮助开发者更便捷地在其应用中集成AI安全防护措施。这套工具基于其开源安全模型 **gpt-oss-safeguard** 开发,但设计上兼容其他模型,为开发者提供了一个可快速部署的“安全基线”。 ### 核心内容:开源安全提示词 OpenAI 此次发布的并非传统意义上的软件更新或模型升级,而是一系列**结构化提示词**,专门针对青少年可能接触到的有害内容进行过滤。这些提示词覆盖了多个关键风险领域,包括: - **暴力与性内容**:限制图形化暴力描述和露骨性内容。 - **有害身体观念与行为**:防止传播不健康的身体形象标准或鼓励危险行为(如极端节食、自残)。 - **危险活动与挑战**:识别并阻止可能引导青少年参与物理风险高的活动(例如网络流行的危险挑战)。 - **浪漫或暴力角色扮演**:限制涉及不当关系模拟或暴力场景的互动。 - **年龄限制商品与服务**:防止未成年人接触烟酒、赌博等受限内容。 ### 为何选择“提示词”形式? OpenAI 在官方博客中解释,许多开发者团队——即便是经验丰富的团队——在将抽象的安全目标转化为具体、可执行的规则时面临困难。这可能导致防护漏洞、执行不一致或过滤过度等问题。通过提供这些预定义的提示词,OpenAI 希望为开发者建立一个**清晰、范围明确的安全基础**,减少自行设计规则时的试错成本。 **提示词设计的优势在于其灵活性与兼容性**。虽然这些策略最初是为配合 **gpt-oss-safeguard** 模型优化,但由于其本质是文本指令,理论上可以适配多种大语言模型(LLMs),方便不同技术栈的团队集成。不过,OpenAI 也坦言,在自家生态内使用可能效果最佳。 ### 合作与开源意义 为确保内容的专业性与适用性,OpenAI 在制定这些提示词时与两家AI安全监督机构合作:**Common Sense Media** 和 **everyone.ai**。Common Sense Media 的AI与数字评估主管 Robbie Torney 在声明中表示:“这些基于提示词的政策有助于在整个生态系统中设定有意义的安全底线,而且由于它们是开源的,可以随着时间推移进行适配和改进。” **开源发布意味着开发者不仅可以免费使用,还能根据具体应用场景进行修改和优化**,形成社区共同维护的安全标准。这符合当前AI行业推动透明、协作安全实践的潮流。 ### 定位:补充而非万能方案 OpenAI 明确表示,这些提示词**并非解决AI安全复杂挑战的终极方案**,而是对其现有安全措施的补充。此前,OpenAI 已在产品层面实施了多项防护,如家长控制、年龄预测等功能。此次工具包的推出,更像是将部分内部安全实践“模块化”并开放给开发者,降低整个行业构建青少年友好型AI应用的门槛。 ### 行业背景与影响 随着生成式AI快速渗透教育、娱乐、社交等领域,如何保护青少年免受不当内容影响已成为全球监管机构和科技公司的焦点。欧盟的《数字服务法》(DSA)、美国的儿童在线安全立法趋势都在强化平台责任。OpenAI 此举可视为一种**前瞻性行业自律**,既回应了外部监管压力,也为开发者提供了实用工具,可能推动形成更统一的青少年AI安全实施标准。 对于中小型开发团队而言,直接采用经过验证的提示词能显著加快产品安全合规进程;而对于整个生态,开源协作有望逐步沉淀出更健壮、可迭代的安全最佳实践。 ### 小结 OpenAI 通过发布开源青少年安全提示词工具包,为AI应用开发者提供了一条降低安全实现难度的路径。它并非完美解决方案,但作为一套可操作、可适配的起点,有助于在快速发展的AI行业中建立更广泛的安全基线,尤其对资源有限的中小团队具有实用价值。未来,其效果将取决于开发者的采纳程度与社区的持续改进。

TechCrunch13天前原文

在AI笔记应用如Granola(估值2.5亿美元)风靡科技界之际,一位英国开发者Nick Payne看到了市场对更私密、本地化解决方案的需求。他与朋友Mike Franklin共同开发了**Talat**——一款仅需一次性购买、无需订阅的Mac应用,其核心特点是所有音频处理和转录都在本地设备上完成,数据永不离开用户电脑。 ## 开发背景:从技术探索到产品化 Payne最初被Granola吸引,惊叹于它能在Mac上仅录制系统音频而不录视频的技术实现。这促使他深入研究,发现了苹果一个相对较新且文档较少的API——**Core Audio Taps**,该API允许开发者接入Mac的音频流。为了更方便地使用这个API,Payne创建了开源音频库**AudioTee**。 然而,Payne始终对主流AI笔记工具的隐私问题感到不安。他指出:“最先进的托管转录模型(与Granola等使用的提供商相同)非常出色,看到你的语音近乎实时地展现在屏幕上确实很酷。但让我困扰的是,这种交换需要提供的不只是我的数据,而是我的音频数据——我的真实声音。” ## 技术突破:本地AI转录的实现 关键转折点出现在Payne发现了**FluidAudio**——一个Swift框架,支持在苹果设备上实现完全本地、低延迟的音频AI处理。该框架允许直接在Mac的**Neural Engine**(苹果专为AI处理设计的硬件)上运行小型、快速的转录模型。 这一发现让Payne意识到,他可以将自己的研究转化为一个真正的产品:一个音频永不离开Mac、转录文本不存储在其他公司服务器上的应用。 ## 产品特点:简约与隐私至上 Talat的设计理念强调极简和隐私: - **一次性购买**:应用大小仅20MB,用户只需支付一次费用,无需创建账户或订阅。 - **零数据共享**:不收集分析数据回传给开发者,所有处理均在设备本地完成。 - **本地优先**:利用Mac的Neural Engine进行实时转录,无需云端服务器参与。 ## 市场定位:在功能与隐私间权衡 Payne承认,与Granola等功能丰富的AI笔记工具相比,Talat可能缺少一些“花哨功能”。但他认为,对于重视隐私的用户来说,这种权衡是值得的。Talat的目标用户是那些愿意牺牲部分高级功能以换取完全数据控制权的专业人士。 ## 行业启示:本地AI的崛起 Talat的出现反映了AI行业的一个新兴趋势:随着设备端AI硬件的进步(如苹果的Neural Engine),越来越多的应用开始探索本地化AI处理的可能性。这不仅提升了隐私保护水平,还减少了网络依赖和延迟问题。 ## 小结 Talat并非试图取代Granola等主流工具,而是为市场提供了一个重要的补充选择。它证明了在AI时代,隐私和本地控制并非不可兼得——只要有足够的技术创新和用户需求驱动。对于关注数据安全的会议参与者来说,Talat可能是一个值得考虑的简约而强大的替代方案。

TechCrunch13天前原文

## 无需训练即可实现动态实体识别:Claude工具调用在Amazon Bedrock的应用 在当今数据驱动的商业环境中,企业普遍面临一个核心挑战:如何从海量非结构化数据中高效提取有价值的信息。传统方法通常依赖于资源密集的流程和僵化的模型,不仅部署周期长,而且难以适应不断变化的业务需求。Amazon Bedrock最新推出的**Claude工具调用(Claude Tool use)**功能,为这一问题提供了革命性的解决方案。 ### 什么是Claude工具调用? Claude工具调用,也称为函数调用,是一种强大的能力,允许用户通过建立和调用外部函数或工具来增强Claude的能力。这一功能的核心在于,用户可以为Claude预先定义一组工具(包括工具名称、输入模式和描述),当Claude处理用户提示时,它会评估任务需求,并智能决定是否需要调用这些工具来辅助完成任务。 与传统的实体识别模型不同,Claude工具调用**无需进行专门的模型训练或复杂的设置**。它利用大型语言模型(LLMs)的通用理解能力,通过自然语言提示即可动态、灵活地识别和提取结构化数据。 ### 在Amazon Bedrock中的实现方式 Amazon Bedrock作为完全托管的生成式AI服务,集成了包括Anthropic的Claude在内的多种高性能基础模型。在该平台上实现Claude工具调用异常简便: 1. **工具定义**:用户定义一组工具,明确每个工具的功能和输入要求。 2. **提示提交**:用户提交可能涉及工具使用的自然语言提示。 3. **智能评估**:Claude自动评估提示内容,判断是否需要调用工具。 4. **动态执行**:如适用,Claude选择要使用的工具及相应输入,完成数据提取。 ### 解决方案架构:以驾照信息提取为例 本文演示了如何利用Claude工具调用从驾照中提取自定义字段。该解决方案采用**无服务器架构**,结合Amazon Bedrock、AWS Lambda和Amazon S3,实现实时文档处理和信息提取。 **核心优势**: - **无需训练**:直接利用Claude的预训练能力,省去传统机器学习项目中的数据标注和模型训练环节。 - **高度灵活**:可轻松适应不同文档类型(如发票、合同、表单等)和实体类型的变化。 - **生产就绪**:遵循AWS最佳实践,可快速部署为生产级解决方案。 - **成本效益**:无服务器架构按需计费,避免了传统方案中高昂的初始基础设施投入。 ### 行业影响与未来展望 Claude工具调用在实体识别领域的应用,标志着AI技术正从“专用模型”向“通用能力+工具增强”范式转变。对于金融、医疗、法律等文档密集型行业,这意味着: - **开发效率提升**:企业可将原本需要数周甚至数月的实体识别项目,缩短至几天内完成原型验证。 - **业务敏捷性增强**:当需要识别新的实体类型时,只需调整工具定义或提示词,无需重新训练模型。 - **技术门槛降低**:更多非AI专家也能利用自然语言交互,实现复杂的数据提取任务。 随着工具调用能力的不断成熟,我们有望看到更多结合LLM通用理解力与专用工具精度的混合型AI解决方案,进一步推动生成式AI在企业级场景的落地。

AWS ML13天前原文

在 AI 驱动的企业资源规划(ERP)领域,初创公司 Doss 近日宣布完成 5500 万美元的 B 轮融资,由 Madrona 和 Premji Invest 共同领投,Intuit Ventures 等机构参与。这笔资金将用于推动其 AI 原生库存管理系统的开发与市场拓展。 ## AI 库存管理:ERP 领域的痛点与机遇 ERP 系统常被比喻为企业的“中央大脑”,它整合了财务、人力资源、库存等多个部门的数据,确保信息共享和流程协同。然而,传统 ERP 系统如 NetSuite 常被诟病为笨重、昂贵且实施耗时。近年来,一批 AI 原生 ERP 初创公司如 Rillet 和 Campfire 应运而生,旨在替代这些传统方案。但 Doss 的联合创始人兼 CEO Wiley Jones 指出,许多新兴 AI ERP 系统在库存管理方面存在短板——即确保实物商品数据与会计账本同步的过程。 Doss 的解决方案是提供一个 **AI 原生库存管理层**,能够与现有会计系统无缝集成,无论是传统 ERP 还是 AI 初创公司构建的系统。这种集成方式避免了“推倒重来”的昂贵升级,让企业能在保留现有基础设施的同时,享受 AI 带来的效率提升。 ## 战略转型:从竞争到合作 Doss 成立于 2022 年,最初专注于核心会计产品,与 Rillet 和 Campfire 等 AI 原生初创公司类似。但去年,公司决定调整战略。Jones 表示:“我们宁愿与这些公司合作,玩一个不同的游戏。”这一转变源于对市场需求的洞察:AI 原生 ERP 公司通常擅长管理应收账款、应付账款等财务功能,但大多缺乏与会计工作流集成的采购和库存管理能力。 通过专注于库存管理这一细分领域,Doss 避免了与更广泛的 ERP 供应商直接竞争,转而成为它们的补充伙伴。这种策略不仅降低了市场进入壁垒,还利用了 AI 技术在库存优化、预测分析和自动化方面的潜力。 ## 融资详情与行业背景 本轮 5500 万美元的 B 轮融资由 **Madrona** 和 **Premji Invest** 共同领投,**Intuit Ventures** 参与投资。其他新老投资者包括 Theory Ventures、General Catalyst、Contrary Capital 和 Greyhound Capital。这笔资金将加速 Doss 的产品研发和市场扩张,特别是在与更多 ERP 系统集成方面。 在 AI 和 ERP 融合的大趋势下,Doss 的融资反映了投资者对 **AI 增强型企业软件** 的信心。随着企业数字化转型加速,能够解决具体业务痛点(如库存同步)的 AI 工具正获得更多关注。 ## 未来展望与挑战 Doss 的 AI 库存管理系统旨在通过机器学习算法,实时跟踪库存变动、预测需求并自动调整会计记录,从而减少人为错误和提高运营效率。然而,挑战依然存在: - **集成复杂性**:不同 ERP 系统的数据格式和 API 差异可能增加开发难度。 - **市场接受度**:企业可能对 AI 驱动的库存管理持谨慎态度,尤其是在数据安全和隐私方面。 - **竞争格局**:尽管 Doss 采取了合作策略,但其他 AI 初创公司或传统 ERP 供应商也可能进入这一细分市场。 总体而言,Doss 的融资和战略定位凸显了 AI 在企业软件中的实用价值——不是取代整个系统,而是通过智能层增强现有流程。随着更多资金注入,这家初创公司有望在 AI 库存管理领域树立新标杆。

TechCrunch13天前原文

随着AI购物功能成为科技巨头的新战场,谷歌与OpenAI正通过不同策略争夺这一市场。谷歌近期宣布与**Gap集团**合作,允许其**Gemini AI助手**直接为用户购买旗下品牌(包括Gap、Old Navy、Banana Republic和Athleta)的服装。这一功能基于谷歌的**通用商务协议(UCP)**,用户可通过Gemini浏览商品并使用Google Pay完成支付,而Gap负责物流配送。此前,谷歌已与沃尔玛、塔吉特等零售商达成类似合作,旨在通过AI助手简化购物流程。 与此同时,OpenAI却在调整其购物策略。据报道,该公司已放弃几个月前在ChatGPT中推出的内置结账功能,原因是销售表现“令人失望”。相反,OpenAI计划转向与零售商合作,在ChatGPT内推出品牌专属应用,并专注于改进商品展示方式,例如引入**视觉搜索功能**,让用户能更直观地浏览产品。 **AI购物的兴起与挑战** 零售商正寻求超越传统搜索引擎的新渠道来推广商品,AI助手被视为潜在入口。然而,用户是否愿意通过聊天机器人购物仍存疑问。一方面,AI能提供个性化推荐并简化流程;另一方面,消费者可能更习惯直接访问电商平台或应用。 **技术路径的分歧** - **谷歌**:通过UCP协议整合多零售商,打造通用购物助手,强调无缝结账体验。 - **OpenAI**:从内置结账转向平台化合作,侧重内容展示与品牌定制化。 这场竞争不仅关乎技术能力,更涉及用户习惯、商业生态与数据隐私的平衡。未来,AI购物能否成为主流,或将取决于谁能更精准地解决真实消费痛点。

The Verge13天前原文
Arm 亲自下场造芯,Meta、OpenAI 等巨头成首批客户

全球领先的芯片设计公司 Arm 近日宣布,将打破其长期以来的 IP 授权模式,开始自行设计和生产芯片。这一战略转变的核心是推出名为 **Arm AGI CPU** 的新产品,旨在抢占快速增长的人工智能芯片市场。 ## 从 IP 授权到亲自造芯:Arm 的战略转型 Arm 首席执行官 Rene Haas 在旧金山的发布会上明确表示:“我们现在进入了 ARM 的新业务领域,我们正在供应 CPU。” 这一举动标志着 Arm 不再仅仅是一家知识产权授权公司,而是直接与英特尔、AMD 等传统芯片制造商展开竞争。 Haas 强调,推动这一转型的主要动力来自客户需求。随着人工智能技术在经济各领域的广泛应用,对计算资源的需求急剧上升,Arm 希望抓住 AI CPU 市场增长的机遇。 ## Arm AGI CPU:瞄准高效能 AI 计算 这款新芯片被命名为 **Arm AGI CPU**,名称中包含了“人工通用智能”的缩写,暗示其设计目标是处理更复杂、更通用的 AI 任务。芯片专为数据中心的高性能服务器设计,旨在与其他芯片协同工作,处理所谓的“代理式 AI”任务。 **技术细节方面**: - **制造工艺**:芯片由全球领先的半导体代工厂 **台积电** 采用其 **3nm 工艺** 制造。 - **核心优势**:Arm 高管在发布会上重点强调了其能效优势,声称这款 AGI CPU 将成为市场上“最高效的代理式 CPU”。与英特尔和 AMD 的最新 x86 芯片相比,Arm 宣称其芯片在每瓦性能上表现更优,有望为客户节省数十亿美元的电力开支。 ## 首批客户阵容:科技巨头云集 Arm 已公布了首批重要客户名单,显示出市场对其新产品的强烈兴趣: - **Meta**:作为首个主要客户,已收到芯片样品。Meta 基础设施负责人 Santosh Janardhan 在发布会上现身,表达了合作意向。 - **OpenAI**:这家领先的 AI 研究公司也已同意采购该芯片。 - **其他客户**:还包括 SAP、Cerebras、Cloudflare,以及韩国科技公司 SK Telecom 和 Rebellions。 这一客户组合涵盖了社交媒体、AI 研究、企业软件、云计算和电信等多个关键领域,表明 Arm 的新芯片在多样化场景中均有应用潜力。 ## 行业影响与未来展望 Arm 此举可能对芯片行业格局产生深远影响: 1. **竞争加剧**:Arm 直接进入芯片制造领域,将与英特尔、AMD 等老牌厂商正面竞争,特别是在能效敏感的 AI 和数据中心市场。 2. **供应链角色变化**:Arm 从纯设计公司转变为设计+产品公司,其与台积电等代工厂的合作关系将更加紧密,同时也可能影响其与原有授权客户(如高通、苹果)的动态。 3. **AI 硬件多元化**:随着更多玩家进入,AI 芯片市场将更加多元化,客户可能有更多定制化和高效能的选择。 Arm 预计其 AGI CPU 将在 **今年下半年实现全面量产**。如果其宣称的能效优势在真实场景中得到验证,这款芯片有望在数据中心和 AI 推理等场景中占据一席之地,特别是在电力成本和可持续发展日益受到重视的背景下。 **总结来说**,Arm 的造芯计划不仅是其自身商业模式的重大突破,也反映了 AI 浪潮下硬件需求的深刻变化。从授权 IP 到提供完整解决方案,Arm 正试图在价值更高的产业链环节中分得更大蛋糕。其成功与否,将取决于产品实际性能、客户采纳度以及与现有生态的协同能力。

WIRED AI13天前原文
爱迪生的复仇:数据中心正从交流电转向直流电

随着人工智能(AI)算力需求的爆炸式增长,传统数据中心正面临前所未有的供电挑战。近日,业界传出消息,数据中心供电架构正迎来一场根本性变革——从主流的交流电(AC)向直流电(DC)过渡,特别是**800伏直流电**供电方案,被视为支撑下一代AI数据中心的关键技术。这被形象地称为“爱迪生的复仇”,因为直流电正是托马斯·爱迪生在19世纪末“电流战争”中力推的技术路线。 ### 为何是“爱迪生的复仇”? 在电力发展史上,爱迪生与特斯拉(以及西屋电气)之间曾爆发著名的“电流战争”。爱迪生主张采用直流电(DC)进行电力传输和分配,而特斯拉则推广交流电(AC)。最终,由于交流电在长距离传输和电压变换上的巨大优势,它成为了全球电网和绝大多数电力应用的标准。然而,在数据中心内部,情况正在发生变化。现代服务器、GPU(如图形处理器)等核心计算设备内部实际上都使用直流电运行。传统的AC供电架构需要经过“交流电输入 → 整流为直流电 → 降压至设备所需电压”的多重转换过程,每一步转换都会产生能量损耗和热量。 ### 800伏直流电:下一代AI数据中心的“电力高速公路” 当前,驱动AI大模型训练和推理的**高密度计算GPU(如NVIDIA的下一代产品)** 功耗巨大,单个机架的功率密度正迅速攀升。传统的400伏或更低电压的供电系统在输送如此高功率时,会因电流过大而导致线缆发热严重、损耗增加,且需要更粗的线缆,增加了成本和部署复杂性。 **800伏直流电供电方案**直接针对这一痛点: - **降低传输损耗**:根据焦耳定律,在输送相同功率时,更高的电压意味着更低的电流,从而显著减少在线路上的能量损耗(I²R损耗)和发热。 - **提升供电效率**:理论上,采用直流直供架构,可以省去或简化多级AC-DC转换环节,有望将整体供电效率从传统架构的约90-92%提升至95%甚至更高。对于功耗以兆瓦计的超大规模数据中心,这意味著每年节省数百万美元的电费和巨大的碳足迹。 - **支持高密度机架**:它为**NVIDIA等公司规划的未来高计算密度机架**提供了可行的电力输送方案,是解锁更高算力密度的关键基础设施。 ### 挑战与展望 尽管前景广阔,但向800伏直流电的全面过渡并非一蹴而就: - **生态系统成熟度**:目前,支持800伏直流输入的服务器电源、配电单元(PDU)、断路器等关键设备尚未大规模普及,供应链和标准仍需完善。 - **安全与标准**:高压直流电的电气安全规范、运维规程与传统AC有差异,需要建立新的行业标准和最佳实践。 - **改造成本**:对于现有数据中心,改造供电基础设施成本高昂,更可能在新建设施中率先采用。 这场从AC到DC的转变,本质上是电力电子技术与计算需求共同驱动的结果。它不仅是供电技术的回归,更是面向以AI为代表的高性能计算时代的必然升级。当数据中心的“电力血脉”变得更高效、更强大,我们或许才能真正释放下一代AI硬件的全部潜力。这不仅是爱迪生技术路线的迟来胜利,更是数字时代基础设施的一次深刻演进。

IEEE AI14天前原文

由连续创业者Brett Adcock创立的秘密AI实验室Hark近日透露了其雄心勃勃的计划:通过同步设计模型、硬件和界面,打造一个“无缝端到端个人智能产品”。该公司声称,这一系统将具备对用户生活的持久记忆,并能实时聆听、观察和与世界互动。 ## 从“笨拙”到“科幻”:Hark的AI愿景 Hark创始人Adcock在一份内部备忘录中直言不讳地批评了当前AI的局限性:“在我看来,今天的AI模型远不够智能,它们感觉相当‘笨’,而我们用来访问它们的设备从根本上说是‘前AI时代’的。”他描绘的未来图景更接近科幻作品中的Jarvis或《她》中的系统——能够预测、适应并真正关心使用者的智能体。 这一愿景的核心在于打破现有AI作为“附加功能”嵌入传统平台的模式。Hark主张将智能置于“基础层”,而非仅仅作为上层应用或网站存在。 ## 关键人物:前苹果设计师Abidur Chowdhury 为实现这一愿景,Hark近期聘请了前苹果工业设计师Abidur Chowdhury担任设计总监。Chowdhury在苹果期间曾领导iPhone Air等近期型号的设计团队,他的加盟被视为Hark在硬件与界面融合设计上的重要布局。 在独家采访中,Chowdhury虽未透露具体产品路线图,但暗示了其设计哲学:“世界正在明显改变,但我们仍在使用围绕现有平台设计的相同设备。很少有人真正去探索未来是什么样子。”他强调了从底层重构智能交互的重要性。 ## 行业背景:硅谷的“杀手级应用”竞赛 Hark的雄心并非孤例,它反映了硅谷持续寻找能让AI成为大众消费品的“杀手级应用”的趋势。当前,多数AI功能仍以“外挂”形式存在于现有数字平台中,体验往往割裂且笨拙。 Hark试图通过**端到端整合**——即从模型、硬件到界面的全链条协同设计——来解决这一问题。这种“三位一体”的路径,旨在创造更自然、无缝的智能体验。 ## 挑战与不确定性 尽管愿景宏大,具体执行细节仍高度保密。Chowdhury仅透露公众可期待在今年夏季看到公司AI模型的首次发布,但硬件形态、交互方式等关键信息尚未公开。 **主要挑战可能包括:** - **技术整合难度**:多模态模型、专用硬件与创新界面的深度协同需要突破性工程。 - **隐私与伦理**:具备“持久记忆”且能实时感知环境的系统,必然引发数据安全与用户信任问题。 - **市场接受度**:用户是否愿意为全新的智能设备范式买单,仍是未知数。 ## 小结:AI交互的范式转移尝试 Hark代表了AI行业从“功能附加”向“原生智能”演进的一次大胆尝试。通过吸纳苹果等消费电子巨头的设计人才,并强调端到端整合,它试图重新定义人类与智能系统的关系。 然而,这条道路充满挑战。在模型智能程度、硬件创新成本与用户习惯培养之间取得平衡,将是Hark能否实现其科幻愿景的关键。今年夏季的模型发布,或许能为我们提供更多线索。

TechCrunch14天前原文
Claude Code 现已能接管你的电脑完成任务,但 Anthropic 警告:研究预览版安全措施“并非绝对”

## Anthropic 推出 AI 桌面控制功能,Claude Code 可接管电脑完成任务 Anthropic 近日宣布,其 AI 助手 **Claude Code** 和面向普通用户的 **Claude Cowork** 现已具备直接控制本地电脑桌面的能力。这意味着 AI 可以“点击、滚动、导航屏幕内容”,在必要时“自动打开文件、使用浏览器、运行开发工具”以完成任务。这一功能目前以“研究预览”形式向 **macOS 上的 Claude Pro 和 Max 订阅用户** 开放。 ### 功能机制:优先连接器,备选桌面控制 Anthropic 强调,Claude 在可能的情况下会优先使用 **Connectors**(连接器)直接访问和控制外部应用或数据源。但当连接不可用时,AI 工具现在可以请求权限,在本地机器上“按需滚动、点击打开、探索”以执行任务。此外,用户还可以通过 **Claude 的 Dispatch 工具** 远程启动和管理这种电脑控制,只要目标电脑保持开机状态。 ### 性能与局限:研究预览版尚不完美 公司明确指出,这一系统“不会总是完美工作”,复杂任务有时需要“第二次尝试”。通过“电脑使用”完成任务比通过连接器执行相同任务“耗时更长且更容易出错”。这反映了当前 AI 代理在真实环境交互中仍面临的挑战。 ### 安全隐忧:训练防护“并非绝对” 赋予一个“容易出错”的 AI 工具按需探索电脑桌面的权限,无疑会引发合理的安全担忧。尤其是在企业和个人用户赋予 AI 代理访问敏感资源后,已出现多起安全问题的背景下。 Anthropic 表示已实施防护措施,例如防止提示注入攻击,并默认限制访问某些“禁止”应用(如“投资交易平台、加密货币”)。公司在一份支持页面中指出,模型经过训练会避免“高风险操作”,包括移动或投资资金、修改文件、抓取面部图像或输入“敏感数据”。 **然而,Anthropic 也坦率警告:这些训练防护措施“并不完美”且“并非绝对”,意味着“Claude 偶尔可能超出这些界限”。** 更值得注意的是,当电脑使用功能激活时,Claude 将能看到屏幕上任何可见内容,这进一步扩大了潜在的数据暴露风险。 ### 行业背景:AI 代理竞争白热化 Anthropic 此举使其加入了日益拥挤的 **AI 代理** 竞争领域,多家公司正竞相开发能够直接控制用户设备的智能助手。从自动化工作流程到复杂开发任务,AI 代理的“手”正伸向更底层的系统交互。但随之而来的安全、隐私和可靠性问题,已成为行业必须面对的共性挑战。 ### 小结:便利与风险的平衡 Claude Code 的电脑控制功能代表了 AI 向更深层次人机协作迈出的重要一步,尤其对开发者而言,自动化工具使用和文件操作可能提升工作效率。但 Anthropic 以“研究预览”形式推出,并反复强调其局限性和风险,显示出公司在创新与责任之间的谨慎权衡。对于早期采用者,这意味着在享受前沿自动化能力的同时,必须对潜在的数据安全和操作错误保持高度警觉。

Ars Technica14天前原文
建造全球最大数据中心需要什么?工程师们正在改写规则手册

在人工智能浪潮席卷全球的背景下,数据中心的规模和复杂性正以前所未有的速度增长。近期,一个旨在打造“全球最大数据中心”的项目浮出水面,其背后透露出的不仅是技术挑战,更是整个行业规则的重塑。 ## 为何需要“全球最大数据中心”? 随着生成式AI、大语言模型和自动驾驶等应用的爆发式增长,对算力和数据存储的需求呈指数级上升。传统数据中心的设计标准已难以满足当前需求,尤其是在处理海量非结构化数据、支持高并发训练任务时。这个“巨型数据中心”项目正是为了应对这一挑战而生——它不仅要容纳数以万计的GPU集群,还需解决电力供应、散热效率和网络延迟等核心问题。 ## 工程师们面临的三大挑战 1. **电力与能源管理**:超大规模数据中心的功耗可达数百兆瓦,相当于一座小型城市的用电量。工程师们正在探索新型供电架构,包括直接高压直流输电、模块化电源设计,以及可再生能源的大规模集成。 2. **散热技术创新**:传统的风冷系统在密度提升后效率骤降。项目团队可能采用液冷(尤其是浸没式冷却)、热回收技术,甚至与当地气候结合的自然冷却方案,以降低PUE(电源使用效率)值。 3. **网络与延迟优化**:在分布式训练中,节点间通信延迟直接影响模型训练速度。工程师需重新设计网络拓扑,可能引入光学互联、定制交换芯片,并优化软件栈以减少数据搬运开销。 ## 改写“规则手册”的背后逻辑 这个项目之所以让工程师“扔掉规则手册”,是因为现有标准(如TIA-942、Uptime Institute的层级认证)更多面向传统企业IT负载,而非AI原生基础设施。例如: - **可靠性定义变化**:AI训练允许短暂中断后从检查点恢复,这与金融交易系统要求的“五个九”可用性截然不同。 - **密度与弹性平衡**:机柜功率密度从过去的5-10kW跃升至50kW以上,迫使重新思考供电和冷却的冗余设计。 - **软件定义基础设施**:通过AI调度和预测性维护,硬件故障可在软件层被部分容忍,这改变了传统“硬冗余”的设计哲学。 ## 对AI行业的意义与展望 这个巨型数据中心若成功落地,将直接推动AI模型规模的进一步扩大——我们可能看到万亿参数模型成为常态,多模态训练成本下降,边缘与云端协同更为紧密。同时,它也会倒逼供应链创新,从芯片定制、先进封装到绿色能源技术都将受益。 然而,挑战依然存在:选址的土地与水资源约束、建设周期与资本开支的平衡、以及长期运营的可持续性,都是项目团队必须直面的问题。无论如何,这场“规则改写”已悄然开始,它不仅是单个工程的突破,更是AI基础设施演进的关键里程碑。

IEEE AI14天前原文
这些AI工作站看似普通PC,却蕴藏更强算力:Tenstorrent与Nvidia推出本地AI新方案

在AI技术快速发展的今天,本地化部署正成为行业的重要趋势。近日,**Tenstorrent**与**Nvidia**相继推出新型AI工作站解决方案,旨在为开发者和企业提供更强大的本地AI模型运行能力。这些设备外观虽与普通个人电脑相似,但其内部硬件配置却针对AI计算进行了深度优化,展现出与传统PC截然不同的性能表现。 ## 硬件设计的革新 Tenstorrent推出的**QuietBox 2**工作站采用了半透明侧窗设计,直观展示了其内部先进的硬件架构。这种设计不仅具有美学价值,更体现了产品对散热和硬件展示的重视。与普通PC相比,这类AI工作站通常配备了专门为神经网络计算优化的处理器、更大容量的高速内存以及针对模型推理任务设计的加速卡。 Nvidia作为AI计算领域的领导者,其解决方案则进一步整合了自家的GPU技术与软件生态,为本地AI部署提供从硬件到软件的全栈支持。两家公司的产品虽然路径不同,但都指向同一个目标:让复杂的AI模型能够在本地环境中高效运行,减少对云端服务的依赖。 ## 本地AI部署的价值与挑战 **降低延迟与提升隐私安全**是本地AI部署最直接的优势。对于需要实时响应的应用场景(如工业质检、医疗影像分析),本地计算可以避免网络传输带来的延迟问题。同时,敏感数据无需上传至云端,有效降低了数据泄露风险。 然而,本地部署也面临**硬件成本较高、维护复杂度增加**等挑战。AI工作站需要平衡性能、功耗和散热,这对硬件设计提出了更高要求。Tenstorrent和Nvidia的解决方案正是在尝试通过专用硬件和优化设计来应对这些挑战。 ## 行业影响与未来展望 这类专用AI工作站的涌现,反映了AI技术从云端向边缘端延伸的趋势。随着模型压缩技术、专用AI芯片的进步,未来我们可能会看到更多形态的本地AI计算设备出现。 对于开发者而言,这些工作站提供了更灵活的开发和测试环境;对于中小企业,则降低了采用AI技术的门槛。虽然目前这类产品仍主要面向专业用户,但随着技术成熟和成本下降,未来有望向更广泛的市场渗透。 **关键点总结:** - Tenstorrent QuietBox 2通过透明设计展示硬件创新 - Nvidia提供从硬件到软件的全栈AI解决方案 - 本地AI部署在延迟和隐私方面具有明显优势 - 专用硬件设计是平衡性能与功耗的关键 - 边缘AI计算正在成为行业发展的重要方向

IEEE AI14天前原文

## Anthropic 推出 Claude 电脑自主控制功能:AI 助手迈向“实体操作”新阶段 AI 公司 Anthropic 近日宣布,为其 Claude 模型的 **Code** 和 **Cowork** AI 工具推出了一项突破性更新:这些 AI 助手现在能够**自主控制用户的电脑**,执行包括打开文件、使用浏览器和应用程序、运行开发工具等一系列任务。这项功能目前以“研究预览”形式向 **Claude Pro** 和 **Max** 订阅用户开放,但**暂时仅限于 macOS 设备**。 ### 功能如何运作? 根据 Anthropic 的公告,这项新功能旨在实现“零设置”的自动化操作。其核心机制是: - **权限先行**:Claude 在执行任何电脑操作前,都会**明确请求用户的许可**,确保控制权始终在用户手中。 - **双管齐下的执行方式**: 1. **优先连接器**:对于 Slack、Google Workspace 等已支持集成的服务,Claude 会优先通过这些专用连接器高效完成任务。 2. **直接界面控制**:当没有现成连接器时,Claude 会转而**直接控制你的浏览器、鼠标、键盘和显示器**,通过模拟人类操作(如探索、滚动、点击)来达成目标。 - **跨设备协同**:用户需要在支持的 macOS 设备上运行 Claude 桌面应用,并将其与 Claude 手机应用配对。这使得用户即使不在电脑旁,也能通过手机指派任务给桌面端的 Claude 执行。 ### 技术背景与战略意图 此次更新并非凭空而来。它建立在 **2024 年 Claude 3.5 Sonnet 模型引入的自主能力**之上,但将这种能力从纯粹的对话与代码生成,扩展到了能够**与物理计算机界面进行交互的“AI 代理”**层面。这标志着 Anthropic 在推动 AI 从“思考与建议”走向“感知与执行”的路径上迈出了关键一步。 在 AI 助手竞争日益激烈的当下(如与 ChatGPT、Gemini 的竞争),Anthropic 此举意在强化 Claude 在**开发者生产力**和**复杂工作流自动化**场景下的独特价值。Code 和 Cowork 工具本就是为编程和协作场景设计,赋予它们直接操作电脑的能力,理论上可以无缝衔接代码编写、环境配置、测试运行、文档查找等一连串动作,极大提升效率。 ### 当前局限与未来展望 Anthropic 坦诚地指出了该预览功能的局限性: - **平台限制**:目前仅支持 macOS,Windows 和 Linux 用户还需等待。 - **性能瓶颈**:通过屏幕操作的方式比直接 API 集成**速度更慢**,且**复杂的任务有时需要重试**才能成功。 - **“早期分享”模式**:Anthropic 明确表示,他们“提前分享此功能是因为想了解它在哪些地方有效,在哪些地方不足”。这符合其一贯的审慎研究风格,旨在通过真实用户反馈来迭代改进,而非急于推出一个不成熟的产品。 这项功能与 Anthropic 近期推出的 **Dispatch**(跨设备任务分派)功能结合使用时效果尤佳,构成了一个从移动端发起、在桌面端自动执行的远程工作闭环。 ### 行业意义与潜在影响 Claude 获得电脑控制权,是 AI 向“具身智能”(Embodied AI)或至少是“数字环境具身”方向演进的一个显著信号。它不再仅仅是一个回答问题的聊天窗口,而是变成了一个可以主动在用户数字工作空间中“动手”的智能体。 这引发了关于**效率与安全**的经典权衡: - **效率提升**:对于开发者、研究人员、内容创作者等专业人士,一个能自动处理繁琐、重复电脑操作的 AI 助手无疑是强大的生产力倍增器。 - **安全与隐私考量**:尽管有明确的权限请求机制,但允许 AI 直接操控核心生产工具(电脑),必然会对安全架构、隐私保护、操作审计提出更高要求。Anthropic 选择以研究预览形式、在有限平台推出,正是为了在可控范围内探索这些边界。 **小结**:Anthropic 此次更新,将 Claude 从“顾问”角色部分转向了“执行者”角色。虽然目前仍处于受限的研究预览阶段,且存在速度慢、平台窄等缺点,但它清晰地指向了 AI 助手发展的下一个前沿——深度融入并自动化用户的数字工作流。其成功与否,将取决于 Anthropic 能否在提升自动化能力的同时,构建起足够坚固的安全与信任屏障。

The Verge14天前原文
乌克兰战场迎来无人机战争拐点:AI如何开启自主蜂群时代

## 从宠物摄像头到战场革命:一位乌克兰工程师的转变 2025年底,当基辅工程师雅罗斯拉夫·阿日纽克(Yaroslav Azhnyuk)在伦敦记者面前描述未来战争图景时,他的话语充满了紧迫感。这位曾是美国宠物智能摄像头公司Petcube联合创始人兼CEO的“自由派人士”,在2022年俄罗斯入侵乌克兰后彻底改变了人生轨迹。2023年,他辞去CEO职务,投身于一项更紧迫的事业:用技术保卫祖国。 阿日纽克并非危言耸听者。他描绘的场景包括:**“由自主无人机组成的蜂群,携带其他自主无人机进行保护,以对抗试图拦截它们的自主无人机,所有这些都由AI代理控制,最终由某处的人类将军监督。”** 他甚至想象,成群的自主潜艇携带数百架无人机,突然出现在加利福尼亚或英国海岸,大规模释放它们的“货物”。 ## 绝望中的创新:消费级无人机的战场化 阿日纽克的转变源于前线的现实。通过前线朋友,他亲眼目睹了乌克兰军队如何在绝望中,将**现成的消费级无人机**改造为战场工具。最初,这些无人机仅用于战场监视,但几个月内,士兵们就学会了如何绑上炸药,将它们变成**低成本、高效率的杀伤性武器**。 他们当时可能并未意识到,自己正在点燃一场战争革命。 ## 自主化模块:AI驱动的精准打击 阿日纽克创立的乌克兰机器人公司**The Fourth Law**,正致力于将这场革命推向新阶段。该公司开发了一种**自主化模块**,利用光学传感器和AI技术,引导无人机飞向目标。这种模块的核心在于,让无人机在复杂战场环境中自主识别、追踪并攻击目标,减少对操作员的实时依赖。 在展示给乌克兰总统泽连斯基和德国总理朔尔茨的演示中,阿日纽克展示了一款具备自主能力的开发型无人机。这标志着无人机战争正从“遥控玩具”阶段,迈向**AI驱动的自主决策时代**。 ## 蜂群战术:量变引发质变 当前线士兵将单架无人机改装为武器时,他们开启的是一条技术演进路径。而AI赋能的**蜂群战术**,则将这种量变转化为质变。想象一下:数十甚至数百架小型无人机,通过AI协同规划路径、分配目标、相互保护,形成一张智能攻击网络。这种网络不仅难以被传统防空系统拦截(成本效益极低),还能通过饱和攻击突破防线。 阿日纽克描述的“无人机保护无人机”场景,正是蜂群智能的体现:部分无人机负责侦察和电子干扰,部分负责攻击,部分则充当“保镖”拦截敌方反制措施。 ## 对全球防务的启示 乌克兰战场已成为**AI与无人机融合**的试验场。这场冲突表明: - **技术民主化**:消费级硬件结合开源AI算法,能让中小国家或非国家行为体获得前所未有的不对称优势。 - **迭代速度**:战场需求驱动技术快速迭代,从改装到自主模块开发,周期缩短至数月。 - **防御困境**:传统防空系统面对低成本蜂群攻击时,面临经济和效能上的双重挑战。 ## 未来战争的轮廓 阿日纽克的担忧并非空想。随着AI模型轻量化、边缘计算能力提升,以及无人机平台成本持续下降,**自主蜂群系统**正从实验室走向战场。这不仅改变了乌克兰战场的战术平衡,更可能重新定义未来冲突的形态。 当被问及“如何防御这种威胁”时,阿日纽克没有给出简单答案。这恰恰揭示了问题的核心:在AI驱动的自主武器时代,攻防天平正在倾斜,而国际社会尚未准备好相应的伦理与法律框架。 乌克兰的故事,既是一个国家在存亡之际的技术自救,也是全球AI军事化浪潮的一个缩影。从宠物摄像头到自主蜂群,一位工程师的旅程,映射出一场正在发生的战争革命。

IEEE AI14天前原文

## Mirage 获7500万美元融资,加速AI视频编辑模型研发 视频编辑应用 **Captions** 的开发商 **Mirage** 近日宣布,已从 **General Catalyst 的 Customer Value Fund (CVF)** 获得 **7500万美元** 的增长融资。这笔资金将主要用于继续构建其AI模型,以增强视频编辑能力,并拓展其在广告、营销等行业的应用。 ### 品牌重塑与战略转型 过去一年,Mirage 经历了显著的战略调整。公司从原名 **Captions** 更名为 **Mirage**,旨在将自己定位为一家 **AI实验室**,专注于开发多种模型,并服务于广告和营销等行业。这一转变反映了公司从单一应用向更广泛的AI技术提供商的转型。 ### 产品创新与模型研发 Mirage 在技术方面取得了重要进展: - **专门模型训练**:公司已训练了一个针对短视频的 **节奏、构图和注意力动态** 的模型,以优化视频内容的吸引力。 - **音频模型突破**:新开发的音频模型能够 **保留生成视频中的口音**。Mirage 联合创始人兼CEO **Gaurav Misra** 表示,这一创新源于用户反馈,例如他父亲在使用应用时,印度口音被错误地转换为美国口音,凸显了国际用户的需求。 - **未来方向**:Misra 透露,公司计划开发更多模型,重点聚焦于 **“组装智能”** ——即利用不同来源和组件组合视频,但具体功能细节尚未公布。 ### 商业模式调整与市场竞争 为应对日益激烈的市场竞争,Mirage 在 **2025年1月** 转向了 **免费增值模式**,以更好地与 **字节跳动的CapCut** 和 **Meta的Edits** 等应用竞争。此外,公司还推出了 **视频创作套件**,整合了Captions的部分功能,允许企业批量创建和分发视频。 ### 市场表现与用户基础 根据分析公司 **AppFigures** 的数据,Captions 在过去365天内下载量超过 **320万次**,应用内收入达 **2840万美元**。Misra 补充说,平台已用于创建超过 **2亿个视频**,用户基础国际化程度高,仅 **25%的收入来自美国**,其余来自全球市场。 ### 平台整合与未来展望 目前,Mirage 的营销套件主要在网页端提供,而Captions 则侧重于移动优先的编辑套件。公司计划 **合并这两个平台**,以更好地服务中小企业,帮助它们创建营销视频。随着AI视频编辑工具的普及,Mirage 的融资将助力其在技术创新和市场扩张中保持竞争力。 ## 小结 Mirage 的7500万美元融资标志着其在AI视频编辑领域的持续投入。通过品牌重塑、模型研发和商业模式调整,公司正从单一应用向多行业AI解决方案提供商转型。未来,随着“组装智能”等新模型的推出,Mirage 有望在视频创作工具市场中占据更重要的位置,特别是针对国际用户和中小企业需求。

TechCrunch14天前原文

德国机器人公司Agile Robots近日宣布与谷歌DeepMind建立战略研究合作伙伴关系,这是继波士顿动力等公司之后,又一家与谷歌AI实验室联手的机器人硬件企业。这一合作将把DeepMind的Gemini Robotics基础模型集成到Agile Robots的机器人中,同时利用机器人收集的数据来改进Gemini AI模型。 ## 合作内容与目标 根据协议,Agile Robots将在其机器人中**实施谷歌DeepMind的Gemini Robotics基础模型**,而机器人收集的数据将被用于**改进底层的Gemini AI模型**。双方将共同测试、微调和部署使用Gemini基础模型的机器人,应用于**电子制造、汽车、数据中心和物流**等行业的工业场景。 Agile Robots联合创始人兼首席执行官Zhaopeng Chen在新闻稿中表示,公司已在全球安装了**超过20,000个机器人解决方案**,证明了大规模智能自动化的可行性。他指出:“未来的巨大机遇在于能够改变整个行业的自主、智能生产系统。将谷歌DeepMind的Gemini Robotics模型集成到我们的机器人解决方案中,使我们处于这个快速增长市场的前沿。” ## 公司背景与融资情况 Agile Robots成立于2018年,总部位于德国慕尼黑,已从软银愿景基金、中国硬件公司小米和Midas集团等投资者那里筹集了**超过2.7亿美元的风险投资**。该公司专注于开发智能机器人系统,旨在实现工业自动化的升级。 ## 行业趋势:机器人公司与AI实验室的联手 Agile Robots是**最新一家与谷歌DeepMind达成合作的机器人硬件公司**。今年早些时候,现代汽车旗下的波士顿动力公司(Boston Dynamics)也已与DeepMind合作,将AI模型应用于其机器人平台。这一趋势反映了机器人行业与人工智能研究日益紧密的结合。 通过将先进的AI模型(如Gemini)集成到物理机器人中,企业能够提升机器人的自主性、适应性和智能水平,从而在复杂工业环境中实现更高效的任务执行。同时,机器人收集的实时数据又为AI模型的持续优化提供了宝贵资源,形成良性循环。 ## 合作细节与前景 尽管双方未透露合作的具体期限或价格细节,但发言人确认这是一项**长期协议**。这种长期性表明双方对共同推动机器人AI技术发展的承诺,预计将在未来几年内逐步推出更智能的机器人解决方案。 随着工业4.0和智能制造的推进,AI驱动的机器人正成为变革生产流程的关键力量。Agile Robots与谷歌DeepMind的合作,不仅有助于提升自身产品的竞争力,也可能为整个机器人行业树立新的技术标杆。

TechCrunch14天前原文

## 索尼Bravia 8 II OLED电视限时优惠:为何值得入手? 随着索尼宣布将在2026年将Bravia电视品牌控制权移交给TCL,零售商们正通过大幅折扣清理库存,为2027年即将上市的新型号让路。在这一背景下,**百思买(Best Buy)** 对索尼**Bravia 8 II** 65英寸OLED电视提供了**600美元的折扣**,使其售价降至2700美元,成为当前市场上极具吸引力的高端电视选择。 ### 产品亮点与折扣背景 Bravia 8 II作为索尼去年的旗舰OLED型号,其零售价本身已体现了索尼在画质、音效和智能功能上的高标准。此次折扣并非产品性能问题,而是源于品牌战略调整带来的库存清理需求。对于消费者而言,这意味着能以接近中端电视的价格,获得顶级OLED体验。 **关键优势**: - **画质表现**:OLED面板提供深邃的黑色、高对比度和精准的色彩还原,适合电影、游戏等高要求场景。 - **智能功能**:内置Google TV系统,支持主流流媒体应用,语音控制便捷。 - **设计工艺**:索尼一贯的简约设计,适合现代家居环境。 ### 为何现在是最佳购买时机? 1. **价格优势明显**:600美元的降幅对于高端电视而言相当可观,直接降低了入手门槛。 2. **技术成熟稳定**:作为已上市一段时间的型号,其性能经过市场检验,软件更新相对完善。 3. **品牌过渡期机会**:索尼与TCL的合作可能导致未来产品线变化,当前型号代表了纯正索尼技术遗产。 ### 潜在考虑因素 - **新品即将到来**:2027年新机型发布后,当前型号可能进一步降价,但等待意味着错过当前优惠。 - **技术迭代**:虽然OLED基础技术稳定,但未来型号可能在处理器、接口或AI功能上有所升级。 ### 总结建议 如果你正在寻找一款画质出色、功能全面的高端电视,且预算在3000美元左右,Bravia 8 II的当前折扣版无疑是一个明智选择。它平衡了性能、价格和可靠性,尤其适合家庭影院爱好者或对视觉体验有高要求的用户。抓住品牌过渡期的窗口,以优惠价格拥有索尼旗舰技术,是本次促销的核心价值所在。

ZDNet AI14天前原文

在智能手机市场,200美元价位段竞争激烈,谷歌和三星等品牌纷纷推出廉价机型,但摩托罗拉凭借其**2026款Moto G**,以“高性价比”的经典配方,赢得了部分用户的青睐。本文将从性能、价格和用户体验角度,探讨为何这款手机能在竞争中脱颖而出。 ## 性能与价格的平衡 **2026款Moto G**的核心优势在于其“久经考验的配方”——在保持**亲民价格**的同时,提供**出色的性能**。与同价位的谷歌和三星廉价机型相比,Moto G通常搭载更均衡的硬件配置,例如处理器、内存和存储组合,确保日常使用流畅,减少卡顿。这种策略避免了过度削减核心组件,从而在成本控制下最大化用户体验。 ## 行业背景:AI驱动的手机竞争 在AI技术快速渗透的背景下,智能手机正从硬件竞赛转向软硬件协同。谷歌和三星在廉价机型中可能集成基础AI功能,如语音助手或相机优化,但摩托罗拉通过优化系统底层,确保Moto G在有限预算内也能流畅运行AI应用。这反映了行业趋势:**性价比机型不再只是“够用”,而是追求智能体验的普及化**。 ## 用户体验的差异化 - **系统优化**:摩托罗拉基于Android的定制系统通常更轻量,减少预装软件,提升响应速度,这对于预算有限的用户至关重要。 - **设计耐用性**:Moto G系列常以坚固设计和长电池续航著称,满足日常高强度使用需求。 - **更新支持**:尽管廉价机型更新周期较短,但摩托罗拉在安全补丁和系统升级方面表现相对稳定,增强用户信任。 ## 总结:为何选择Moto G? 最终,选择**2026款Moto G**而非其他廉价机型,源于其**综合价值**——它不追求最低价格,而是在200美元价位提供可靠的性能、优化的AI兼容性和持久的使用体验。在AI时代,这种平衡策略让摩托罗拉在竞争激烈的市场中保持吸引力,为用户提供了“物超所值”的选择。

ZDNet AI14天前原文

## 引言:从Qwen2-72B的意外发现到现代模型的验证 2024年中,一篇名为《LLM神经解剖学》的研究在AI社区引发了广泛关注。作者通过一种名为**RYS(Repeat Your Self)**的方法,在**Qwen2-72B**模型中复制了中间七层(不改变权重、不进行训练),结果竟使该模型登顶**HuggingFace Open LLM Leaderboard**榜首。这一发现仅基于硬数学探针和EQ-Bench测试,在一对RTX 4090显卡上完成,挑战了传统模型优化的认知。 如今,随着**Qwen3.5、MiniMax、GLM-4.7**等一批强开源模型的涌现,作者终于获得了足够的计算资源进行更全面的扫描。本文的核心问题是:**RYS是Qwen2-72B的偶然现象,还是Transformer架构的普遍属性?** ## 实验设计与初步发现 为了回答这个问题,作者进行了大规模的系统性实验: - **3,024个波束搜索候选**:探索不同层重复配置的效果。 - **代理模型评分200万种配置**:通过高效模拟预测性能。 - **统一验证扫描**:确保结果的可比性和可靠性。 实验的短期答案是肯定的:**层重复(relayering)在现代更强模型上依然有效**。但更长的答案需要深入分析具体细节。 ## 为什么选择Qwen3.5-27B作为研究对象? 作者选择了**Qwen3.5-27B**模型进行重点研究,原因有三: 1. **社区实用性**:Qwen3.5系列于2026年农历新年左右发布,迅速成为LocalLLaMA社区的热门选择。27B规模在性能和可访问性之间达到了平衡——足够大以展现有趣的内部结构,又足够小让拥有主流GPU的用户能够实际运行RYS变体。 2. **科学验证价值**:在较小模型中,功能解剖结构往往更“纠缠”,编码、推理和解码的分离不如大模型清晰。如果RYS在27B模型上依然有效,说明这种电路结构具有鲁棒性;如果无效,也同样具有研究意义。 3. **扩展性**:作者计划后续扫描MiniMax M2.5等其他模型,目前计算资源(基于双Grace-Hopper系统)正在持续运行中。 ## 直接观察模型解剖结构 在优化工作之前,作者引入了一种新的观察方法。在Part 1中,**三阶段假设**(早期层编码、中间层推理、晚期层解码)是通过Base64观察和热图模式间接推断的。现在,作者能够更直接地可视化这些结构,为理解模型内部工作机制提供了新视角。 ## 深层问题与未来方向 本文不仅验证了RYS方法的普适性,还提出了几个关键问题: - **哪些修改真正值得额外的层?** 并非所有层重复都能带来性能提升,需要精细识别有效模式。 - **如果两个好的模式独立有效,它们能否叠加?** 这涉及到模型结构的组合优化。 - **这是否暗示了通用语言的存在?** 标题中的“通用语言线索”指向一个更宏大的猜想:如果不同模型共享类似的功能解剖结构,可能意味着AI语言处理中存在某种普遍原则。 ## 小结 这项研究展示了**开源模型社区通过低成本实验推动前沿探索的潜力**。RYS方法的成功不仅为模型优化提供了新工具,也加深了我们对Transformer内部工作机制的理解。随着更多模型的扫描和更深入的分析,我们或许能逐步揭开大语言模型“黑箱”的神秘面纱,甚至发现跨模型的通用语言处理规律。 作者已发布扫描代码和一系列新的RYS模型,鼓励社区参与验证和扩展。对于AI研究者和开发者而言,这既是技术挑战,也是探索智能本质的难得机会。

Hacker News14714天前原文