SheepNav

AI 资讯

每日聚合最新人工智能动态

来源:TechCrunch清除筛选 ×

## ChatGPT 新功能:动态视觉解释,让学习更直观 OpenAI 于本周二宣布,为 ChatGPT 推出了一项名为 **“动态视觉解释”** 的新功能。这项功能允许用户在探索数学公式、变量和科学关系时,**实时观察它们的变化**,而不仅仅是阅读文字解释或查看静态图表。 ### 功能如何运作? 用户现在可以直接与交互式视觉模块互动。例如,在探讨**勾股定理**时,你可以调整三角形两边的长度,并立即看到斜边的长度随之更新。同样,对于其他概念,用户可以调整数字和变量,变化会即时反映在视觉呈现中。 要体验此功能,只需向 ChatGPT 提出相关数学或科学问题,例如: - “什么是透镜方程?” - “如何计算圆的面积?” ChatGPT 不仅会提供文字解释,还会生成一个可操作的交互模块,让用户通过动手调整来加深理解。 ### 覆盖范围与可用性 目前,该功能已支持 **70 多个数学和科学主题**,包括但不限于: - **数学领域**:二项式平方、圆的面积、平方差、指数衰减、线性方程等。 - **科学领域**:查理定律、复利、库仑定律、胡克定律、动能、欧姆定律等。 OpenAI 表示,未来计划扩展更多交互主题。此功能对所有已登录的 ChatGPT 用户开放。 ### 教育意义与行业背景 动态视觉解释的推出,标志着 ChatGPT 的角色从单纯提供答案,转向**鼓励用户直接参与概念探索**。这种转变可能促进更深层次的理解,尽管实际效果取决于用户的使用方式。 在 AI 持续改变学习方式的背景下,这一功能引发了教育界的广泛讨论。尽管部分教育工作者担忧过度依赖 AI,但许多教师和学生已将这些工具融入日常学习。据 OpenAI 数据,**每周有超过 1.4 亿人使用 ChatGPT 寻求数学和科学帮助**,这些学科传统上对学习者构成较大挑战。 ### 小结 ChatGPT 的动态视觉解释功能,通过交互式体验降低了数学和科学概念的理解门槛,体现了 AI 在教育辅助领域的创新应用。随着更多主题的加入,它有望成为学习者的有力工具,同时推动教育界对 AI 整合的进一步思考。

TechCrunch26天前原文

**AgentMail** 是一家总部位于旧金山的初创公司,专注于为 AI 智能体提供专门的电子邮件服务。该公司近日宣布完成 **600 万美元** 的种子轮融资,由 **General Catalyst** 领投,Y Combinator、Phosphor Capital 以及多位天使投资人参与。这笔资金将用于进一步开发其 API 平台,让 AI 智能体能够拥有自己的电子邮件收件箱,支持双向对话、解析、线程管理、标签、搜索和回复等功能。 ### AI 智能体的崛起与电子邮件需求 几年前,AI 智能体还主要是能使用基本工具的聊天机器人,受限于可靠性、安全性和成本问题,技术仅停留在早期采用者阶段。但如今,情况已发生巨大变化。从 Claude Code、Codex 和 Cursor 等编码智能体的普及,到 OpenClaw 今年早些时候的爆红,AI 智能体正被广泛应用于调试、营销活动、日历管理和会议安排等任务。行业预测,AI 智能体数量将很快与真实互联网用户相当,它们将代表人类使用软件、购物和自动化大量工作。 在这种背景下,**AgentMail** 应运而生。它看到了 AI 智能体在未来互联网生态中的关键角色,因此专门设计了一个电子邮件服务平台,以满足智能体在沟通和任务执行中的独特需求。 ### AgentMail 的核心功能与创新 AgentMail 提供了一个 API 平台,允许用户为 AI 智能体分配独立的电子邮件收件箱。其核心功能包括: - **双向对话支持**:智能体可以接收和发送邮件,实现与人类或其他智能体的无缝沟通。 - **邮件解析与线程管理**:自动解析邮件内容,并智能管理对话线程,确保上下文连贯。 - **标签与搜索**:支持为邮件添加标签,并提供强大的搜索功能,方便智能体快速定位信息。 - **回复与附件处理**:智能体能够直接回复邮件,并处理附件,扩展其自动化能力。 此外,AgentMail 还推出了 **onboarding API**,允许 AI 智能体直接注册并为自己创建电子邮件收件箱,进一步简化了集成流程。平台也提供手动设置和管理收件箱、权限、允许列表及 API 密钥的界面,兼顾灵活性与控制力。 ### 为何 AI 智能体需要专属电子邮件? 据 AgentMail 联合创始人兼 CEO Haakam Aujla 解释,该平台旨在为 AI 智能体提供类似 Gmail 或 Outlook 的收件箱体验,但去除了人类用户所需的 UI 元素。例如,当智能体处理邮件时,它需要高效地管理线程、消息和附件,并进行标签、搜索和过滤操作,而无需图形界面干扰。AgentMail 从底层构建,优化了这些功能,使智能体能够更专注于任务执行。 值得注意的是,平台也提供了人类可用的界面,用于管理多个智能体收件箱、阅读和发送邮件,确保了人机协作的便利性。 ### 行业影响与未来展望 AgentMail 的融资成功反映了资本市场对 AI 智能体基础设施的看好。随着智能体在商业和个人场景中的普及,对专用通信工具的需求将日益增长。AgentMail 不仅解决了智能体在电子邮件处理中的技术挑战,还可能推动整个 AI 生态系统的标准化和互操作性。 未来,我们可以期待更多类似 AgentMail 的服务出现,共同构建一个支持 AI 智能体高效运作的基础设施层。对于开发者和企业而言,这意味着更低的集成成本和更高的自动化效率,加速 AI 智能体从概念到落地的进程。

TechCrunch26天前原文

## 重磅合作:AI研究新星与芯片巨头的强强联手 2026年3月10日,由OpenAI前联合创始人Mira Murati创立的**Thinking Machines Lab**宣布与半导体巨头**英伟达(Nvidia)**达成一项多年战略合作伙伴关系。这一协议不仅涉及至少**1吉瓦(gigawatt)**的算力部署,还包括英伟达对这家初创公司的战略投资,标志着AI基础设施竞赛进入新阶段。 ### 协议核心内容:算力与资本的双重加持 根据公开信息,此次合作的关键点包括: - **算力规模**:Thinking Machines Lab将从2027年开始部署至少1吉瓦的英伟达**Vera Rubin系统**。该系统于今年早些发布,是英伟达最新的高性能计算平台,旨在支持大规模AI模型训练。 - **战略投资**:英伟达作为投资方之一,向Thinking Machines Lab注资,具体金额未披露。这延续了英伟达在AI生态中的投资策略,此前它已参与该公司的融资轮次。 - **技术合作**:双方承诺共同开发基于英伟达架构的训练和服务系统,以优化AI模型的性能和效率。 Mira Murati在合作博客中表示:“**英伟达的技术是整个AI领域的基础**。这次合作加速了我们构建可塑AI的能力,让AI能更好地服务于人类潜力。”这凸显了算力在AI研发中的核心地位。 ### Thinking Machines Lab:高估值初创公司的崛起与挑战 Thinking Machines Lab成立于2025年2月,虽仅两年历史,但已迅速成为AI领域的焦点: - **融资与估值**:公司已筹集超过**20亿美元**,投资者包括Andreessen Horowitz、Accel、英伟达,甚至竞争对手AMD的风险投资部门。目前,这家种子期公司的估值超过**120亿美元**,显示出市场对其潜力的高度认可。 - **产品与目标**:2025年10月,公司发布了首个产品**Tinker API**,致力于开发能产生**可重复结果**的AI模型,这在当前AI输出一致性不足的背景下具有创新意义。 - **人才流动**:公司近期经历了一些高层变动,例如联合创始人Andrew Tulloch于2025年10月离职加入Meta,另三位联合创始人Barret Zoph、Luke Metz和Sam Schoenholz也在今年早些时候重返OpenAI。这反映了AI人才竞争的激烈性,但未影响其战略推进。 ### 行业背景:算力饥渴与万亿级投资预测 此次合作发生在AI公司对算力需求持续飙升的背景下。英伟达CEO黄仁勋曾预测,到本世纪末,企业在AI基础设施上的支出可能达到**3万亿至4万亿美元**。这一预测并非空穴来风: - 2025年,竞争对手OpenAI据称与Oracle签署了价值**3000亿美元**的算力协议,虽未获官方确认,但凸显了行业对计算资源的巨大投入。 - 随着AI模型规模扩大,算力已成为制约创新的关键瓶颈,企业纷纷锁定长期供应以保障研发进度。 尽管本次交易的具体金额未公开,但基于行业趋势和Thinking Machines Lab的估值,其规模很可能相当可观。TechCrunch已联系双方获取更多细节,但Thinking Machines Lab仅表示不予置评。 ### 小结:AI竞赛的新变量 Thinking Machines Lab与英伟达的合作,不仅是简单的供应商协议,更是一次生态绑定:英伟达通过投资和算力支持巩固其芯片主导地位,而初创公司则获得了稀缺资源和背书。在AI模型追求可重复性和规模化之际,这类合作或将加速技术突破,但也可能加剧行业垄断风险。未来,随着更多算力交易浮出水面,AI基础设施的竞争将更加白热化。

TechCrunch26天前原文

谷歌近日宣布,将在Google Photos应用中新增一个切换按钮,允许用户选择使用传统的“经典搜索”体验,而非强制使用AI驱动的“问照片”功能。这一调整直接回应了部分用户对AI搜索准确性、速度以及隐私控制的持续抱怨。 ## 功能背景与用户反馈 **“问照片”** 是谷歌于2024年在美国推出的AI搜索功能,允许用户使用自然语言查询照片,例如“上个月在海边拍的照片”或“我和朋友一起做饭的图片”。尽管该功能旨在提供更智能的搜索体验,但自推出以来,部分用户反馈称: - **搜索准确性下降**:AI有时无法找到用户已知存在的照片。 - **响应速度较慢**:相比传统搜索,AI处理复杂查询时可能出现延迟。 - **控制感缺失**:用户感觉被强制使用AI功能,缺乏自主选择权。 去年夏天,谷歌曾因延迟问题暂停了该功能的推广,以优化性能。然而,即便在改进后,仍有用户对AI体验“不感冒”。 ## 谷歌的妥协措施 此前,用户虽然可以在设置中禁用Gemini(谷歌的AI模型)在Google Photos中的使用,但该选项较为隐蔽,容易被忽略。现在,谷歌决定提供更直观的解决方案: - **新增切换按钮**:在搜索屏幕直接添加一个开关,用户可一键关闭“问照片”AI搜索,返回经典结果界面。 - **智能结果优先**:谷歌表示,系统仍会优先显示最符合查询的结果,但用户有了明确的控制权。 Google Photos负责人Shimrit Ben-Yair在X上发文解释:“我们听到了大家的反馈,你们希望在搜索Google Photos时能更自主地控制看到的结果类型。”她强调,谷歌已根据用户反馈优化了部分热门搜索的质量,并承诺持续改进体验。 ## 行业背景与深层意义 这一事件折射出AI产品落地的普遍挑战:**如何在技术创新与用户体验之间取得平衡**。随着AI功能日益渗透到日常应用(如照片管理、文档编辑、智能助手),企业常面临两难: - **推动AI普及**:通过默认启用或深度整合,教育用户接受新交互方式。 - **尊重用户习惯**:部分用户更偏好传统、可预测的工具,尤其涉及个人数据时。 谷歌的“妥协”并非个例。近年来,从社交媒体算法到智能家居设备,多家科技公司在用户压力下调整了AI功能的强制程度。这提醒行业:**AI的价值不仅在于技术先进性,更在于能否无缝融入用户现有工作流,并提供透明、可控的选择**。 ## 未来展望 对于Google Photos而言,这一调整可能带来双重影响: - **短期**:安抚不满用户,减少流失风险。 - **长期**:收集更多对比数据,帮助优化AI模型——毕竟,用户主动选择使用AI的场景,才是真实需求所在。 Ben-Yair在文末呼吁:“我们知道搜索是Photos中最受喜爱和常用的功能之一,我们致力于打造更好的体验。请继续提供反馈!这能帮助我们为所有人创造更神奇的体验。” **小结**:谷歌此次让步,表面上是功能优化,实则反映了AI时代产品设计的重要趋势:给予用户控制权,或许比强行推广“智能”更能赢得信任。在AI浪潮中,平衡创新与包容性,将成为科技公司的核心课题。

TechCrunch26天前原文

在AI技术席卷各行各业的浪潮中,法律科技领域正迎来一个标志性时刻。**Legora**,一家专注于为律师提供AI解决方案的平台,近日宣布完成由**Accel**领投的5.5亿美元D轮融资,公司估值飙升至**55.5亿美元**。这一消息不仅凸显了Legora自身的强劲增长,更折射出AI在法律服务行业中的巨大潜力和持续热度。 ## 融资详情与估值跃升 本轮融资由知名风投机构Accel主导,总额达5.5亿美元,是Legora迄今为止最大的一轮融资。融资后,公司估值达到55.5亿美元,较前一轮融资有显著提升。这笔资金将主要用于加速Legora在美国市场的扩张,包括技术研发、团队建设和市场推广。Accel的参与,通常被视为对初创公司技术实力和商业前景的强力背书,进一步巩固了Legora在AI法律科技领域的领先地位。 ## Legora平台的核心价值 Legora平台旨在通过AI技术赋能律师,提升法律工作的效率和准确性。其解决方案可能涵盖合同审查、法律研究、文档自动化、风险评估等场景,利用自然语言处理和机器学习模型,帮助律师快速处理海量法律文本,减少人工错误和耗时。在传统上依赖高度专业化和人工操作的法律行业,这类AI工具正逐渐成为变革的催化剂。 ## AI法律科技行业的背景与趋势 Legora的高估值并非孤立事件,而是整个AI法律科技行业蓬勃发展的缩影。近年来,随着AI模型能力的提升,法律科技初创公司如雨后春笋般涌现,吸引了大量投资。行业趋势显示: - **效率驱动**:律师事务所和法务部门面临成本压力和效率挑战,AI工具能显著降低运营成本。 - **数据赋能**:法律文档本质上是结构化数据,AI可以从中提取洞察,辅助决策。 - **市场扩张**:美国作为全球最大的法律服务市场,成为AI法律科技公司的必争之地,Legora的融资正是瞄准了这一机遇。 ## 挑战与不确定性 尽管前景乐观,但AI法律科技行业仍面临一些挑战: - **监管合规**:法律行业高度监管,AI工具需确保符合伦理和法规要求,避免偏见或错误。 - **技术成熟度**:AI模型在处理复杂法律逻辑时可能存在局限性,需要持续迭代。 - **市场竞争**:随着更多玩家入场,行业竞争可能加剧,Legora需保持创新以维持优势。 ## 小结 Legora以55.5亿美元估值完成D轮融资,标志着AI法律科技行业进入一个新阶段。在Accel等资本的支持下,其美国扩张计划有望加速,推动法律服务向智能化转型。对于中文读者而言,这一案例提醒我们:AI技术正深度渗透专业服务领域,法律科技或将成为下一个投资热点,值得持续关注其技术落地和商业进展。

TechCrunch26天前原文

Meta近日宣布收购了Moltbook,这是一个类似Reddit的社交网络平台,其独特之处在于允许AI智能体通过OpenClaw进行相互交流。这一收购标志着Meta在AI智能体领域布局的又一重要举措。 **收购详情与团队整合** 据Axios首次报道并经TechCrunch确认,Moltbook的创始团队Matt Schlicht和Ben Parr将加入Meta的**Superintelligence Labs(MSL)**。Meta发言人表示,此次收购将“为AI智能体服务人类和企业开辟新途径”,并特别指出Moltbook通过“始终在线目录”连接智能体的方法是“快速发展领域中的新颖一步”。尽管交易条款未披露,但这一举动凸显了Meta对AI智能体社交化潜力的重视。 **Moltbook与OpenClaw的技术背景** Moltbook的核心技术依赖于**OpenClaw**,这是一个由“氛围编码者”Peter Steinberger(现已加入OpenAI)创建的项目。OpenClaw本质上是一个AI模型包装器,支持Claude、ChatGPT、Gemini或Grok等模型,但其创新点在于允许用户通过iMessage、Discord、Slack或WhatsApp等主流聊天应用,以自然语言与AI智能体交互。 OpenClaw最初在科技社区中流行,但Moltbook将其推向更广泛的公众视野,甚至吸引了那些不了解OpenClaw的用户。这些用户对“AI智能体在社交网络上讨论人类”的概念产生了强烈反应,一度引发病毒式传播。 **安全漏洞与虚假内容风波** Moltbook的爆红也伴随着争议。研究人员发现,该平台存在严重安全漏洞,导致人类用户可以轻易冒充AI智能体发布虚假帖子。例如,一则病毒式帖子中,一个AI智能体似乎鼓励其他智能体开发自己的端到端加密语言,以便在人类不知情的情况下组织行动。然而,这实际上是人为伪造的内容。 Permiso Security的CTO Ian Ahl向TechCrunch解释:“Moltbook在Supabase中的每个凭证都曾在一段时间内未受保护。在那段时间里,你可以获取任意令牌并假装成另一个智能体,因为所有信息都是公开可用的。”这种安全缺陷不仅引发了公众恐慌,也暴露了早期AI社交网络在身份验证和内容审核方面的挑战。 **Meta的整合方向与行业视角** 目前,Meta尚未明确公布如何将Moltbook整合到其AI战略中,但公司高层已对此表现出兴趣。上个月,Meta CTO Andrew Bosworth在Instagram问答中被问及Moltbook时表示,他对“智能体像人类一样交谈”并不感到特别有趣,因为这源于它们基于人类数据的大规模训练。相反,他更关注人类如何“黑入”这些新兴系统,暗示Meta可能更看重Moltbook在安全性和用户体验方面的改进潜力。 **AI智能体社交化的未来展望** 此次收购发生在AI智能体快速发展的背景下,各大科技公司正竞相探索智能体在社交、商业和日常生活中的应用。Moltbook的案例揭示了AI社交网络的两面性:一方面,它提供了智能体间协作的新模式;另一方面,安全风险和虚假信息问题亟待解决。Meta的介入可能意味着更严格的监管和更成熟的技术整合,旨在打造“创新且安全的智能体体验”。 随着AI技术不断渗透社交领域,如何平衡开放性、安全性与用户体验,将成为行业持续关注的焦点。Meta通过此次收购,不仅获得了技术资产,更在AI社交化赛道上迈出了试探性的一步,未来其如何利用Moltbook的“始终在线目录”概念,值得业界观察。

TechCrunch26天前原文

YouTube 近日宣布,其 AI 深度伪造检测工具将向政客、政府官员和记者开放,允许他们标记未经授权的肖像内容以进行移除。这一举措旨在应对日益猖獗的 AI 生成虚假视频问题,特别是在选举和公共信息传播等敏感领域。 ## 背景:AI 深度伪造的威胁与挑战 随着生成式 AI 技术的快速发展,深度伪造视频的制作门槛大幅降低,这些视频能以假乱真地模仿公众人物的言行,对政治稳定、新闻真实性和社会信任构成严重威胁。例如,在选举期间,虚假视频可能被用来误导选民、操纵舆论,甚至引发社会动荡。YouTube 作为全球最大的视频分享平台,拥有数十亿用户,一直是这类内容传播的主要渠道之一。此前,平台已推出一些内容审核措施,但面对 AI 生成内容的泛滥,传统方法显得力不从心。 ## 新工具的核心功能与运作机制 YouTube 的 AI 深度伪造检测工具基于先进的机器学习算法,能够自动识别视频中可能存在的伪造元素,如面部替换、语音合成或动作操控。现在,这一工具将扩展到特定用户群体: - **政客和政府官员**:包括选举候选人、现任官员等,他们可以提交请求,让平台优先审核涉及自己肖像的疑似深度伪造内容。 - **记者**:尤其是报道政治或公共事务的媒体工作者,他们能利用工具来验证视频真实性,防止虚假信息传播。 工具的工作流程大致如下:用户通过 YouTube 的专用渠道提交内容链接或文件,AI 系统会进行分析,如果检测到高度可疑的伪造迹象,平台将采取行动,如添加警告标签、限制传播或直接移除内容。这并非完全自动化——人工审核团队会介入最终决策,以确保准确性和避免误判。 ## 行业意义与潜在影响 YouTube 的这一扩展是 AI 行业在内容安全领域的重要进展。它反映了平台在平衡言论自由与信息真实性之间的努力,同时也凸显了 AI 技术“双刃剑”特性:一方面,AI 被用于制造虚假内容;另一方面,AI 工具又被部署来对抗这些威胁。 从行业角度看,此举可能推动其他社交媒体平台(如 Facebook、Twitter)跟进类似措施,形成更广泛的深度伪造检测生态系统。然而,挑战依然存在: - **技术局限性**:AI 检测工具可能无法 100% 准确,存在误报或漏报风险,尤其是在伪造技术不断进化的背景下。 - **公平性问题**:工具目前仅针对特定群体开放,可能引发关于普通用户权益的争议,例如,如何防止滥用或确保透明度。 - **法律与伦理考量**:深度伪造的治理涉及隐私权、版权和监管框架,YouTube 需要与政策制定者合作,制定更全面的解决方案。 ## 展望:未来趋势与建议 随着 2024 年全球多国选举临近,AI 深度伪造的威胁预计将加剧。YouTube 的举措是一个积极信号,但单靠平台行动不足以根除问题。建议: 1. **加强跨平台合作**:社交媒体公司应共享数据和最佳实践,共同提升检测能力。 2. **提升公众意识**:通过教育项目帮助用户识别虚假内容,减少其传播影响。 3. **推动政策创新**:政府需出台更严格的法规,明确深度伪造的法律责任和处罚措施。 总之,YouTube 扩展 AI 深度伪造检测工具是应对数字时代信息战的关键一步,但它只是漫长斗争的开始。行业、政府和公众必须携手,才能有效遏制 AI 滥用,维护网络空间的真实与信任。

TechCrunch26天前原文

Adobe 于本周二宣布,其 **Photoshop AI 助手** 已进入公测阶段,用户可通过网页版和移动应用体验这一功能。该助手能通过自然语言指令帮助用户完成移除对象、调整颜色、改变光照等操作,付费用户更可在 4 月 9 日前享受无限次生成服务。同时,Adobe 为其媒体生成与编辑工具 **Firefly** 新增了多项 AI 驱动的图像编辑能力,包括生成填充、生成移除、生成扩展和生成放大等。 ## AI 助手如何提升 Photoshop 效率? Photoshop AI 助手的设计初衷是简化复杂的图像编辑流程。用户只需输入如“移除背景中的人物”、“添加柔和光晕”或“将背景转换为日落场景”等自然语言指令,AI 即可自动执行相应操作。这不仅降低了专业软件的使用门槛,也让创意工作者能更专注于艺术表达而非技术细节。 **关键功能亮点**: - **对象移除与背景替换**:快速清理画面或改变整体氛围。 - **色彩与光照调整**:通过提示词微调图像色调和明暗。 - **智能裁剪与格式转换**:适应不同平台或媒介的尺寸需求。 ## Firefly 的新增编辑工具意味着什么? Firefly 作为 Adobe 的生成式 AI 平台,此次更新进一步强化了其在创意工作流中的实用性。新增的 **生成填充**(Generative Fill)功能,此前已在 Photoshop 中应用多年,现在 Firefly 用户也能直接使用,用于替换或添加对象、修改背景。此外,**生成移除**(Generative Remove)可智能消除不需要的元素,**生成扩展**(Generative Expand)能利用 AI 扩大图像尺寸而不失真,**生成放大**(Generative Upscale)则提升了图像分辨率。 这些工具的结合,使得 Firefly 不再局限于单纯的图像生成,而是向全流程的创意解决方案迈进。Adobe 在 2 月已宣布为 Firefly 订阅用户提供无限次生成服务,以鼓励更广泛的应用。 ## 行业背景与竞争态势 Adobe 此次更新正值 AI 在创意领域加速渗透的时期。随着 **Midjourney**、**DALL-E** 和 **Stable Diffusion** 等生成式 AI 工具的崛起,传统设计软件面临革新压力。Adobe 通过整合 AI 助手和增强 Firefly 功能,旨在巩固其在专业创意市场的领先地位,同时吸引更多非专业用户。 值得注意的是,Adobe 还在 Firefly 中集成了超过 25 个第三方视频和图像生成模型,包括 **Google 的 Nano Banana 2**、**OpenAI 的 Image Generation**、**Runway 的 Gen-4.5** 和 **Black Forest Labs 的 Flux.2 Pro**。这种开放策略不仅丰富了工具选择,也显示了 Adobe 在构建 AI 生态上的野心。 ## 用户如何体验这些新功能? - **Photoshop AI 助手**:目前处于公测,用户可通过网页或移动应用访问。付费用户可在 4 月 9 日前享受无限次生成,免费用户则获得 20 次初始额度。 - **Firefly 新工具**:已随更新推出,订阅用户可直接使用。 - **AI 标记功能**:在公测中,允许用户通过绘制标记来指导 AI 进行对象变换或移除。 ## 小结 Adobe 的这次更新,不仅提升了 Photoshop 的智能化水平,更通过 Firefly 的扩展强化了其在 AI 驱动创意工具领域的布局。随着 AI 技术的持续演进,我们有望看到更多传统软件与生成式 AI 的深度融合,从而重新定义创意工作的边界。

TechCrunch26天前原文

Google 近日宣布,在其核心办公套件 **Docs、Sheets、Slides 和 Drive** 中集成了一系列由 **Gemini** 驱动的新 AI 功能。这些更新旨在让应用变得更加个性化和强大,帮助用户直接在平台内更快地完成任务,无需切换到外部工具或聊天机器人。 ### 核心功能亮点 此次更新最引人注目的是 **“帮我创建”** 工具在 Docs 中的引入。用户只需描述想要创建的内容,Gemini 便会根据指令,从用户的 **Drive、Gmail 和 Chat** 中搜集信息,生成一个格式完整的初稿。例如,你可以要求 Gemini“利用我一月份 HOA 会议的记录和即将举办的活动列表,为我们的社区协会起草一份通讯稿”。 生成初稿后,Gemini 还能帮助优化特定部分,而无需重新生成整个文档。用户可以利用 **“帮我写作”** 工具来提高文稿的清晰度或补充必要细节。 ### 提升协作与一致性 针对多人协作时可能出现的文风不一致问题,Google 推出了 **“匹配写作风格”** 功能。Gemini 会建议修改,使整篇文档的语气和风格保持统一。 此外,Docs 还新增了 **“匹配格式”** 工具。如果你喜欢某个文档模板(例如一份旅行行程单),Gemini 可以从你的电子邮件(如航班确认、酒店预订、租车信息)中提取信息,自动填充到该模板中,快速生成一份个性化的文档。 ### Sheets 的智能化升级 对于 **Sheets**,Google 表示 Gemini 正从一个“你在其中工作的工具”演变为一个“协作伙伴”。通过一个简单的提示,它就能从你的 Gmail、Chat 和 Drive 中提取相关数据,快速创建出一个格式完整的电子表格。这大大简化了数据整理和报表生成的初始流程。 ### AI 办公套件竞争加剧 Google 此次更新是其将生成式 AI 深度融入生产力工具战略的延续。在微软凭借 **Copilot for Microsoft 365** 强势推进的背景下,Google 正通过 **Gemini** 在 Workspace 中的深度整合来巩固其市场地位。两者的竞争焦点已从单纯的模型能力比拼,转向了 **AI 与用户现有工作流、数据和生态的无缝结合**。谁能更好地理解上下文、利用用户个人数据(在隐私保护前提下)并提供最流畅的“一站式”体验,谁就可能在未来的办公软件市场中占据优势。 ### 小结 总体来看,Google 的这次更新并非简单的功能堆砌,而是朝着 **“情境感知”** 和 **“主动协作”** 的 AI 办公助手方向迈出的重要一步。它减少了用户在多个应用间切换的摩擦,尝试让 AI 真正理解并服务于用户的个性化工作场景。随着 AI 能力的持续进化,未来的办公软件可能会越来越像一个能够预判需求、整合信息并执行复杂任务的智能副驾驶。

TechCrunch26天前原文

## Zoom全面拥抱AI:虚拟化身、办公套件与深度伪造检测齐发 视频会议巨头Zoom于本周二宣布了一系列AI驱动的产品更新,其中最引人注目的是**AI虚拟化身**将于本月晚些时候正式上线。这些去年首次亮相的虚拟化身能够逼真地模仿用户的外貌、表情、唇部和眼部动作,旨在用户不便开启摄像头时,仍能在在线会议及异步视频消息产品中代表用户参与互动。 ### 核心产品更新概览 Zoom此次发布的核心围绕三大方向:**沉浸式会议体验**、**AI生产力工具**以及**企业级智能助手**。 - **AI虚拟化身与深度伪造检测**:虚拟化身技术利用用户行为数据生成“替身”,而新增的**实时深度伪造检测技术**则旨在为会议安全保驾护航,当系统检测到可能的音频或视频冒充行为时,会向参会者发出警报。 - **AI办公套件(预览版)**:Zoom正式进军文档处理领域,推出了自家的**AI Docs、Slides和Sheets应用**。这套工具能够基于会议转录内容及其他服务数据,自动生成文档草稿、填充数据的电子表格或演示文稿。该套件预计将于今年春季以预览形式提供。 - **AI Companion 3.0与智能代理构建器**:其AI助手**AI Companion**升级至3.0版本,现已登陆桌面应用(此前仅限网页版)。公司透露,该助手在2026财年第四季度的月活跃用户数同比增长超过三倍。同时,Zoom推出了面向非技术用户的**AI代理构建器**,允许用户通过自然语言指令创建能在不同界面工作的自定义代理,并可在聊天中@提及以执行任务。 ### 行业背景与战略布局 Zoom此举并非孤立行动,而是整个**AI办公软件**市场竞争白热化的缩影。从Canva这样的成熟设计平台,到Context等新兴初创公司,乃至Salesforce旗下的Slack不断为其团队通讯应用增添AI功能,各大厂商都在争夺企业生产力市场的未来。 Zoom的应对策略是构建一个**集成的AI生态系统**: - **连接外部知识库**:其AI助手现已能接入Slack、Salesforce、ServiceNow、Gmail、Outlook、Asana、Jira等主流企业服务,实现跨平台信息查询。 - **赋能开发者与统一体验**:公司向开发者开放了可本地或云端部署的**语音、视觉和语言智能API**,并利用AI优化聊天体验,突出关键见解、总结对话线程。此外,Zoom计划统一其在桌面等不同界面的设计语言,以提升用户体验的一致性。 ### 潜在影响与展望 这一系列更新标志着Zoom正从单纯的视频会议服务商,向**综合性AI驱动的工作协同平台**转型。虚拟化身有望缓解“摄像头疲劳”,提升会议灵活性;AI办公套件则直接挑战Google Workspace和Microsoft 365的传统领地。然而,其成功将取决于AI生成内容的准确性、用户数据隐私的保护,以及能否在激烈的市场竞争中形成差异化优势。随着AI代理和工作流自动化需求的增长,Zoom能否凭借其庞大的用户基础和新的智能工具,在企业级市场占据更核心的位置,值得持续关注。

TechCrunch26天前原文

## Sandbar 的 AI 笔记戒指:可穿戴设备的新赛道 由前 Meta 员工 Mina Fahmi 和 Kirak Hong 创立的初创公司 **Sandbar**,近日宣布完成 **2300 万美元** 的 A 轮融资,由 Adjacent 和 Kindred Ventures 领投。这笔资金将用于加速其智能戒指 **Stream** 的开发和推广,该产品计划于今年夏季开始发货。 ### 产品定位:专注笔记,而非健康追踪 与市场上常见的健康追踪戒指(如 Oura)不同,Sandbar 的 Stream 戒指专注于 **AI 驱动的笔记功能**,类似 Plaud 或 Omi 的产品。戒指顶部设有一个平坦的触控面板,默认情况下麦克风处于关闭状态,用户可通过触摸面板激活录音功能。 **核心功能包括:** - **录音笔记**:按住触控面板即可录制语音笔记。 - **AI 助手对话**:通过配套的手机应用,用户可与 AI 助手聊天,处理笔记内容。 - **媒体控制**:支持播放、暂停、跳过曲目和音量调节等操作。 值得注意的是,戒指的麦克风设计为 **近距离拾音**,用户需将手抬至脸部附近才能有效录音,这有助于提高隐私性和录音质量。 ### 市场反响与用户行为 Sandbar 在去年推出 Stream 戒指后,反响远超预期。创始人 Mina Fahmi 表示,首批预购很快售罄,促使公司开放第二批以满足需求。早期用户中,有人每天使用戒指超过 **50 次**,用于规划演示、旅行或餐食等任务。 Fahmi 提到:“(发布后的)反响比我们预期的要热烈得多,这非常鼓舞人心且有意义。很多人说他们能看到自己佩戴这款产品。” ### 技术开发与未来规划 Sandbar 已投入超过两年时间研发 Stream 戒指,并在去年经过朋友和早期采用者的测试后正式亮相。目前,公司正专注于 **优化应用体验** 和提升笔记处理能力。 **短期目标:** - 开发网页平台,改善用户界面。 - 降低模型响应延迟,提升交互流畅度。 **长期愿景:** 实现 **代理工作流**,让用户能基于笔记内容直接采取行动,例如自动安排会议或生成任务列表。 ### 行业背景:可穿戴 AI 的崛起 在 AI 技术快速渗透各行业的背景下,可穿戴设备正从健康追踪扩展到生产力工具领域。Sandbar 的融资成功反映了投资者对 **AI 与硬件结合** 新应用的兴趣。随着生成式 AI 的普及,智能戒指这类设备有望成为个人助理的新载体,挑战传统智能手机的交互方式。 然而,这一赛道也面临挑战,如隐私保护、电池续航和用户习惯培养等。Sandbar 能否在竞争激烈的可穿戴市场脱颖而出,还需观察其产品落地后的实际表现。 ### 小结 Sandbar 的 Stream 戒指代表了可穿戴设备向 **AI 生产力工具** 的转型尝试。凭借 2300 万美元的融资,公司有望在今年夏季推出产品,进一步探索智能戒指在笔记和媒体控制方面的潜力。对于关注 AI 硬件创新的读者来说,这无疑是一个值得跟踪的案例。

TechCrunch26天前原文

在人工智能领域,图灵奖得主Yann LeCun的动向总是备受瞩目。近日,他离开Meta后共同创立的**AMI Labs**宣布完成一笔巨额融资,金额高达**10.3亿美元**,公司投前估值达到**35亿美元**。这一消息不仅标志着LeCun个人职业生涯的新篇章,更可能对AI技术发展产生深远影响。 ## 融资详情与背景 AMI Labs是LeCun在离开Meta后启动的新项目,旨在构建所谓的“世界模型”。这笔10.3亿美元的融资规模在AI初创公司中相当罕见,显示出投资者对LeCun愿景的高度信心。投前估值35亿美元,意味着公司已跻身AI独角兽行列,尽管具体投资者名单尚未公布,但如此规模的资金注入,无疑为AMI Labs的研发提供了强大后盾。 ## 什么是“世界模型”? “世界模型”是AI领域的一个前沿概念,指的是能够模拟和理解现实世界物理规律、因果关系和动态变化的AI系统。与当前主流的基于大量数据训练的模式识别模型不同,世界模型更强调推理和预测能力,旨在让AI像人类一样,通过有限观察来推断未知情境。LeCun长期倡导这一方向,认为这是实现通用人工智能(AGI)的关键路径。 ## 对AI行业的意义 1. **技术路线竞争加剧**:当前AI领域主要由大型语言模型(如GPT系列)主导,但世界模型代表了一种不同的技术范式。AMI Labs的崛起,可能推动行业从数据驱动向推理驱动转变,引发新一轮技术竞赛。 2. **人才与资源流动**:LeCun作为AI泰斗,他的离开和创业,可能吸引更多顶尖人才加入AMI Labs,同时促使其他公司加大在基础研究上的投入。 3. **应用前景**:如果世界模型成功,它有望在自动驾驶、机器人、科学模拟等领域带来突破,解决现有AI系统在复杂环境中表现不佳的问题。 ## 挑战与不确定性 尽管前景广阔,但构建世界模型仍面临巨大挑战: - **技术难度高**:模拟世界需要整合多模态感知、因果推理和长期规划,目前尚无成熟解决方案。 - **商业化路径不明**:相比已落地的AI应用,世界模型可能需要更长时间才能产生实际价值。 - **竞争环境**:其他科技巨头和初创公司也在探索类似方向,AMI Labs能否保持领先,尚待观察。 ## 小结 Yann LeCun的AMI Labs凭借10.3亿美元融资,正式踏入AI世界模型的探索之旅。这不仅是一次高调创业,更可能重塑AI技术格局。随着资金到位,业界将密切关注其研发进展,看它能否实现从理论到实践的跨越,为通用人工智能铺平道路。

TechCrunch27天前原文

近日,超过30名来自OpenAI和谷歌DeepMind的员工签署了一份法庭声明,支持人工智能公司Anthropic起诉美国国防部(DOD)。这一事件源于国防部将Anthropic标记为“供应链风险”,而Anthropic拒绝其技术被用于大规模监控美国公民或自主开火武器。 ## 事件背景:供应链风险标签引发争议 上周晚些时候,美国国防部将Anthropic列为供应链风险——这一标签通常用于外国对手。根据法庭文件,国防部此举是因为Anthropic拒绝允许其技术被用于**大规模监控美国人**或**自主开火武器**。国防部曾辩称,它应能使用AI用于任何合法目的,而不应受私人承包商的限制。 ## 员工联合声明:行业担忧与抗议 周一,超过30名OpenAI和谷歌DeepMind的员工提交了一份法庭声明,支持Anthropic的诉讼。签署者包括**谷歌DeepMind首席科学家Jeff Dean**。声明指出,政府的这一行为是“不当且武断的权力行使”,对AI行业有严重影响。 员工们在声明中强调,如果国防部对与Anthropic的合同条款不满意,本可以取消合同并转向其他领先AI公司。事实上,国防部在将Anthropic列为供应链风险后,立即与OpenAI签署了协议——这一举动引发了许多ChatGPT制造者员工的抗议。 ## 行业影响:竞争与创新受威胁 声明警告,如果允许这一惩罚行为继续,将对美国在人工智能及其他领域的工业和科学竞争力产生后果。它写道:“这将抑制我们领域对当今AI系统风险和益处的公开讨论。”这反映了AI行业对政府干预的普遍担忧,可能影响技术发展和伦理辩论。 ## 法律行动与后续发展 Anthropic已对国防部和其他联邦机构提起两起诉讼,员工的支持声明在诉讼提交后几小时出现在法庭记录中。Wired首先报道了这一新闻。事件凸显了AI公司与政府之间在技术使用伦理和合同自由方面的紧张关系。 ## 小结 这一事件不仅是Anthropic与国防部的法律纠纷,更触及AI行业的核心议题:技术伦理、政府监管与商业自由。员工们的联合行动表明,行业内部对维护技术自主性和公开讨论空间的重视。未来,类似冲突可能继续出现,影响AI创新路径。

TechCrunch27天前原文

随着AI编程工具的普及,开发效率大幅提升的同时,也带来了代码质量、安全性和可维护性的新挑战。Anthropic近日在Claude Code中推出了**Code Review**功能,旨在通过多智能体系统自动分析AI生成的代码,标记逻辑错误,帮助企业开发者高效管理日益增长的AI代码产出。 ### AI编程的“双刃剑”效应 当前,开发者越来越多地采用“氛围编码”(vibe coding)模式——即使用AI工具,通过自然语言指令快速生成大量代码。这种方式虽然显著加快了开发速度,但也引入了新的问题:**代码中可能隐藏着逻辑错误、安全漏洞,以及难以理解的代码片段**。传统的代码审查流程在面对AI生成代码的“洪流”时,往往显得力不从心,形成新的瓶颈。 ### Code Review:AI的“AI审查员” Anthropic的产品负责人Cat Wu指出,Claude Code在企业中的使用增长迅速,但随之而来的一个核心问题是:**如何高效审查Claude Code产生的大量拉取请求(pull requests)**?拉取请求是开发者提交代码变更以供审查的机制,而AI工具大幅增加的代码输出,使得审查工作量激增,拖慢了代码交付速度。 Code Review正是Anthropic给出的解决方案。它作为一个**多智能体系统**,能够自动分析AI生成的代码,**识别逻辑错误、潜在的安全风险和不一致的编码风格**,帮助团队在代码合并前及早发现问题。这相当于为AI生成的代码配备了一位“AI审查员”,旨在提升整体软件质量。 ### 发布策略与企业聚焦 Code Review目前以研究预览形式,首先面向**Claude for Teams和Claude for Enterprise客户**开放。这一发布时机对Anthropic而言颇具战略意义。近期,该公司因被美国国防部认定为供应链风险而卷入法律纠纷,这可能促使Anthropic更加专注于其快速发展的企业业务,通过强化工具链来巩固客户基础。 ### 行业影响与未来展望 Anthropic此举反映了AI编程工具从“生成”向“治理”演进的重要趋势。随着AI辅助编程成为常态,**代码质量保障、安全审计和团队协作效率**将成为企业级AI工具竞争的关键维度。Code Review的推出,不仅解决了当前AI代码审查的痛点,也可能推动整个行业在AI代码管理标准上的进步。 对于开发者而言,这意味着他们可以更自信地利用AI加速开发,而不必过度担忧代码质量的下滑。对于企业,则有望在提升开发速度的同时,维持甚至提高软件的可维护性和安全性。 --- **小结**:Anthropic的Code Review工具是应对AI生成代码激增的针对性解决方案,它通过自动化审查帮助企业缓解代码质量与交付速度之间的张力,标志着AI编程工具正从单纯的代码生成向全生命周期管理深化。

TechCrunch27天前原文

## OpenAI收购Promptfoo:AI代理安全竞赛的关键一步 2026年3月9日,OpenAI宣布收购AI安全初创公司**Promptfoo**,旨在将其技术整合至企业AI代理平台**OpenAI Frontier**。这一举措凸显了前沿AI实验室正急于证明其技术能在关键业务运营中安全使用。 ### 交易背景与Promptfoo简介 Promptfoo成立于2024年,由Ian Webster和Michael D'Angelo联合创立,专注于开发保护大型语言模型(LLMs)免受在线攻击的工具。公司提供开源接口和库,帮助企业测试LLMs的安全漏洞。据披露,其产品已被超过**25%的《财富》500强公司**采用。 自成立以来,Promptfoo仅融资2300万美元,最近一轮融资于2025年7月完成,投后估值为8600万美元(数据来源:PitchBook)。OpenAI未透露本次交易的具体金额。 ### 技术整合与安全挑战 OpenAI在官方博客中表示,收购完成后,Promptfoo的技术将用于: - **自动化红队测试**:模拟攻击以评估AI代理的防御能力。 - **评估代理工作流安全性**:识别自动化流程中的潜在风险。 - **监控活动风险与合规性**:确保AI代理操作符合安全标准。 独立AI代理的发展虽带来生产力提升的兴奋,但也为恶意行为者提供了新的机会,可能危及敏感数据或操纵自动化系统。此次收购直接回应了这些安全担忧。 ### 行业趋势与OpenAI的战略意图 随着AI代理在商业场景的普及,安全问题已成为制约其大规模落地的关键瓶颈。OpenAI此举不仅是为了增强自身平台的安全性,更是在激烈的市场竞争中抢占先机——通过整合专业安全工具,向企业客户传递“可靠、可审计”的信号。 值得注意的是,OpenAI承诺将继续维护并扩展Promptfoo的开源产品,这有助于保持技术透明性,并可能推动行业安全标准的形成。 ### 小结 OpenAI收购Promptfoo是一次典型的“防御性增强”行动,反映了AI行业从单纯追求能力突破,转向能力与安全并重的新阶段。对于企业用户而言,这意味着更安全的AI代理部署选项;对于整个生态,则可能加速安全测试工具的商业化与标准化进程。 然而,交易的具体财务细节未公开,且整合效果尚待观察。在AI代理快速演进的背景下,安全攻防战或将持续升级。

TechCrunch27天前原文

在人工智能行业竞争日益激烈的背景下,知名 AI 初创公司 **Anthropic** 于本周一向美国国防部提起诉讼,抗议后者将其列为供应链风险企业。这一事件不仅突显了 AI 技术与国家安全之间的复杂关系,也引发了关于政府监管与创新平衡的广泛讨论。 ## 事件背景与核心争议 Anthropic 在诉讼中指控国防部的行为是“前所未有的且非法的”。该公司认为,这一标签可能对其业务运营、合作伙伴关系和市场声誉造成负面影响。供应链风险指定通常用于识别可能威胁国家安全的企业,例如涉及外国控制或技术泄露风险的公司。Anthropic 作为一家专注于开发安全、可靠 AI 系统的美国公司,其被列入此类名单,无疑是一个令人意外的转折。 ## AI 行业与政府监管的紧张关系 近年来,随着 AI 技术的快速发展,各国政府加强了对 AI 企业的监管,尤其是在涉及国家安全和供应链安全的领域。美国国防部此举可能反映了对 AI 技术潜在风险的担忧,例如数据隐私、算法偏见或技术被恶意利用。然而,Anthropic 的诉讼表明,这种监管措施可能过于宽泛或缺乏透明度,从而阻碍了创新和公平竞争。 - **潜在影响**:如果 Anthropic 被正式认定为供应链风险,它可能面临政府合同限制、投资减少或合作伙伴流失的风险。 - **行业反应**:其他 AI 公司可能会密切关注此案,因为它可能为未来类似监管行动树立先例。 ## 为什么这起诉讼值得关注? 这起诉讼不仅关乎 Anthropic 一家公司的命运,更触及了 AI 行业的核心议题:如何在确保国家安全的同时,促进技术创新和经济增长。Anthropic 以其对 AI 安全性的强调而闻名,包括开发 **Claude** 等 AI 模型,旨在减少有害输出。因此,该公司被贴上供应链风险标签,可能被视为一种矛盾——它本应是加强 AI 安全性的力量,而非威胁。 ## 未来展望与不确定性 目前,诉讼的细节和国防部的具体理由尚未完全公开,因此无法确定 Anthropic 被指定的确切原因。这可能涉及技术控制、数据管理或地缘政治因素。无论结果如何,此案都可能推动更明确的 AI 监管框架,要求政府在实施风险指定时提供更多证据和透明度。 **小结**:Anthropic 起诉国防部的事件,是 AI 行业与政府监管之间紧张关系的一个缩影。它提醒我们,在追求技术进步的同时,必须审慎处理安全与创新之间的平衡。随着案件进展,行业观察者将密切关注其对 AI 政策和市场动态的长期影响。

TechCrunch27天前原文

德国机器人初创公司**Neura Robotics**近日宣布与半导体巨头**高通**达成战略合作,共同开发下一代机器人和物理AI系统。这一合作标志着机器人行业与大型科技公司在硬件和软件领域加速融合的趋势,旨在推动人形和通用机器人在家庭和工业场景中的实际部署。 ## 合作的核心内容 根据公告,Neura将使用高通在CES上发布的**Dragonwing Robotics IQ10处理器**作为其机器人的参考设计。这些芯片专为自主移动机器人(AMRs)和人形机器人设计,提供边缘AI和连接能力。此外,Neura计划利用其于2025年6月发布的**Neuraverse机器人模拟与训练平台**,对基于IQ10处理器的机器人进行测试和优化。 Neura Robotics的CEO兼创始人David Reger在新闻稿中表示,这次合作是“实现物理AI的关键一步:开放、可扩展且可信赖”。通过结合Neura的认知机器人平台和Neuraverse生态系统,以及高通在边缘AI和连接技术方面的领先优势,双方旨在加速一个未来:认知机器人能安全地与人类并肩工作,覆盖各行各业和日常生活。 ## 行业背景与战略意义 这一合作对双方都极具战略价值。对于Neura Robotics来说,借助高通成熟的芯片技术,可以降低硬件开发门槛,专注于机器人软件和AI算法的创新。而对于高通,与机器人公司合作有助于拓展其处理器在物理AI领域的应用场景,巩固其在边缘计算市场的地位。 这种“机器人初创公司+科技巨头”的合作模式正成为行业趋势。例如,今年1月,波士顿动力(Boston Dynamics)宣布与谷歌DeepMind建立战略伙伴关系,利用谷歌的基础AI模型加速其Atlas人形机器人的开发。虽然波士顿动力和Neura的合作涉及不同技术(AI模型 vs. 芯片),但核心逻辑相似:通过深度合作,机器人公司能更好地整合和利用外部技术,而非仅仅作为供应商的客户。这有助于加速产品落地,降低研发成本,并提升机器人的智能化水平。 ## 物理AI的未来展望 物理AI(Physical AI)指的是将AI系统嵌入到物理实体(如机器人)中,使其能在现实世界中感知、决策和行动。随着AI技术的进步,机器人正从简单的自动化工具向更智能、更通用的方向发展。高通与Neura的合作,正是这一趋势的体现——通过硬件与软件的协同,推动机器人从实验室走向实际应用。 然而,挑战依然存在。机器人的部署需要解决安全性、可靠性和成本等问题,尤其是在复杂环境中与人类互动。Neuraverse平台的引入,可能有助于通过模拟环境提前测试和优化机器人行为,降低实际部署风险。 ## 小结 高通与Neura Robotics的合作,不仅是两家公司的技术互补,更是物理AI行业生态整合的一个缩影。随着更多类似伙伴关系的出现,我们有望看到更智能、更实用的机器人加速进入工业和家庭场景,重塑未来的工作与生活方式。

TechCrunch27天前原文

近日,英国AI基础设施初创公司**Nscale**宣布完成新一轮20亿美元融资,使其估值飙升至**146亿美元**。本轮融资由**Nvidia**领投,并吸引了其他知名投资者参与。与此同时,公司宣布**Sheryl Sandberg**(前Meta COO)和**Nick Clegg**(Meta全球事务总裁)加入其董事会,这一人事变动进一步提升了Nscale在AI行业的战略地位。 ## Nscale:AI基础设施领域的“挪威星门” Nscale成立于2021年,总部位于英国,专注于为AI模型训练和推理提供高性能计算基础设施。公司因其在挪威建设的超大规模数据中心项目而被昵称为“**Stargate Norway**”(挪威星门),该项目旨在利用挪威的清洁能源和地理优势,打造全球领先的AI算力中心。本轮融资将主要用于加速该项目的建设,并扩大全球业务布局。 ## 融资与估值飙升:AI基础设施热潮的缩影 Nscale的146亿美元估值使其成为欧洲AI基础设施领域估值最高的初创公司之一。这轮20亿美元融资是继去年10亿美元融资后的又一笔巨额资金注入,反映了投资者对AI算力需求的持续看好。在AI模型规模不断扩大的背景下,高性能计算基础设施成为行业瓶颈,Nscale等公司正抓住这一机遇,通过自建数据中心和优化硬件配置来提供定制化解决方案。 ## 董事会新成员:Sandberg与Clegg的战略价值 **Sheryl Sandberg**的加入为Nscale带来了丰富的运营和商业化经验,她在Meta期间主导了广告业务的快速增长,这将有助于Nscale在AI基础设施服务中探索更高效的商业模式。**Nick Clegg**则以其在政策和全球事务方面的专长著称,他的加入可能帮助Nscale应对日益复杂的全球监管环境,特别是在数据隐私和AI伦理领域。这两人的背景互补,有望推动Nscale在战略合作、市场扩张和合规方面取得突破。 ## AI基础设施竞争格局:Nscale的机遇与挑战 当前,AI基础设施市场正经历激烈竞争,主要玩家包括**Amazon Web Services (AWS)**、**Microsoft Azure**和**Google Cloud**等云服务巨头,以及**CoreWeave**、**Lambda Labs**等初创公司。Nscale凭借其“挪威星门”项目在能源效率和成本控制上具有潜在优势,但面临资金投入大、建设周期长等挑战。Sandberg和Clegg的加入可能增强其融资能力和战略灵活性,但能否在巨头环伺的市场中脱颖而出,仍需观察其技术执行和商业化进展。 ## 行业影响与未来展望 Nscale的高估值和明星董事会成员加入,凸显了AI基础设施作为AI产业链关键环节的重要性。随着AI模型向多模态和通用人工智能(AGI)发展,算力需求预计将持续增长,这可能推动更多资本涌入该领域。对于Nscale而言,未来需关注其挪威数据中心的建设进度、客户获取情况以及盈利能力。如果成功,它可能成为欧洲AI生态的重要支柱,甚至影响全球算力格局。 **小结**:Nscale的146亿美元估值和Sandberg、Clegg的董事会加入,标志着AI基础设施初创公司正进入新一轮增长周期。在AI行业从模型创新转向基础设施落地的背景下,这类公司的战略价值日益凸显,但高估值也带来了更高的市场期望和竞争压力。

TechCrunch27天前原文

今年2月,Ring在超级碗广告中首次亮相其AI功能“Search Party”,旨在通过摄像头网络帮助寻找走失宠物。然而,这一看似温馨的广告却意外引发了一场关于家庭监控与隐私的全国性争议。 **广告引发的“蓝色圆圈”恐慌** Ring创始人兼CEO Jamie Siminoff在接受TechCrunch采访时坦言,广告中展示的“蓝色圆圈”从一户户住宅向外扩散的视觉画面,可能是引发公众不安的关键。他承认:“我会改变那个画面。我们的本意并非刺激任何人或引发某种反应。”这一动态地图形象被广泛解读为监控网络的扩张,触动了公众对隐私被侵犯的敏感神经。 **“Search Party”功能如何运作?** Siminoff反复强调,**Search Party** 功能的核心是“选择加入”而非强制参与。当一只宠物走失时,系统会向附近区域的Ring摄像头所有者发送通知,询问是否在录像中发现了该动物。用户可以: - 选择回复并提供线索 - 完全忽略请求,保持匿名状态 - 系统不会强制任何人参与,也不会暴露未响应者的身份 Siminoff将其类比为“在自家后院发现一只狗,查看项圈并决定是否拨打上面的电话”——一个基于个人意愿的邻里互助行为。 **时机不佳:Guthrie案件加剧争议** Ring的公关努力恰逢一个敏感时刻。84岁的Nancy Guthrie(《今日秀》主播Savannah Guthrie的母亲)于1月底在Tucson家中失踪,案件中的Google Nest摄像头录像(显示一名蒙面者试图用树叶遮挡镜头)在互联网上广泛传播,将家庭监控摄像头推向了关于安全与隐私辩论的中心。 Siminoff并未回避此案,反而在《财富》杂志的采访中将其作为“安装更多摄像头”的论据。他认为:“如果他们拥有更多(Guthrie家中的)录像,如果房屋周围有更多摄像头,我们或许能破案。”这一表态可能进一步加剧了隐私倡导者的担忧,即监控技术的普及正在模糊安全需求与个人隐私之间的界限。 **AI监控的隐私困境** 尽管Siminoff试图将Ring定位为“社区安全平台”而非监控网络,但公众的疑虑根植于更深层的行业背景: - **数据收集范围**:AI驱动的摄像头系统不仅记录视频,还可能通过算法分析行为模式、识别面孔或物体,引发数据滥用风险。 - **用户控制权**:虽然Siminoff强调“不作为即选择退出”,但用户是否真正理解数据如何被共享或存储? - **社会影响**:密集的摄像头网络可能营造“被监视感”,影响社区信任与自由氛围。 **小结:沟通与信任的挑战** Siminoff的坦诚回应揭示了科技公司在推广AI监控产品时面临的普遍困境:如何平衡技术创新、商业利益与社会责任。尽管他努力澄清误解,但部分回答(如以Guthrie案件论证更多摄像头的必要性)可能无意中强化了批评者的观点——即监控扩张的逻辑正在压倒隐私考量。对于Ring而言,重建信任或许需要更透明的数据政策、更清晰的用户教育,以及更审慎的公共沟通策略。

TechCrunch28天前原文

近期,五角大楼与AI公司Anthropic围绕其Claude技术使用的谈判破裂,特朗普政府将Anthropic列为供应链风险,而该公司表示将诉诸法庭。与此同时,OpenAI迅速宣布了自己的国防协议,引发用户卸载ChatGPT的反弹,并将Anthropic的Claude推上App Store榜首。至少一名OpenAI高管因担忧协议缺乏适当护栏而辞职。 在TechCrunch的Equity播客最新一期中,Kirsten Korosec、Sean O’Kane和主持人讨论了这一系列事件对其他寻求与联邦政府(尤其是五角大楼)合作的初创企业意味着什么。Kirsten质疑:“我们是否会看到一些态度的转变?” **争议的核心:技术如何被用于军事目的** Sean指出,这种情况在多个方面都非同寻常,部分原因在于OpenAI和Anthropic的产品是“大家热议不休的”。关键在于,这是一场关于“他们的技术如何被用于或不用于杀人”的争议,因此自然会引起更多审视。Kirsten认为,这一事件应该“让任何初创企业都三思”。 **初创企业的两难:联邦资金与道德风险** Kirsten在播客中问道,其他初创企业是否开始审视联邦政府(特别是五角大楼)与Anthropic之间的争论和角力,并对是否追求联邦资金产生犹豫。她推测,这可能标志着初创企业对国防合同的态度发生微妙变化。 Sean补充说,他也对此感到好奇,并认为当前环境可能促使更多初创企业重新评估与政府合作的利弊。尽管国防合同往往资金雄厚,但涉及AI等敏感技术的军事应用时,公众和市场的反应可能极为强烈,正如OpenAI协议引发的用户反弹所示。 **行业影响:AI伦理与商业实践的交叉点** 这一争议凸显了AI伦理与商业实践之间的紧张关系。对于AI初创企业而言,与政府合作不仅能带来稳定收入,还可能提升技术可信度。然而,当技术可能被用于军事或监控目的时,企业品牌和用户信任可能面临重大风险。Anthropic选择法律对抗,而OpenAI则面临内部异议,这反映了不同公司在应对类似挑战时的策略差异。 **未来展望:初创企业需权衡风险与机遇** 尽管争议可能让一些初创企业对国防工作望而却步,但Sean和Kirsten都认为,这并非意味着所有企业都会退缩。相反,它可能促使初创企业更谨慎地评估合作条款,加强伦理审查,并考虑公众反应。在AI技术日益融入国家安全领域的背景下,如何在创新、商业利益与社会责任之间找到平衡,将成为初创企业必须面对的关键课题。 **小结** 五角大楼与Anthropic的争议不仅是一场法律或政治风波,更是一次对AI行业与政府合作模式的压力测试。初创企业在追求联邦资金时,需权衡潜在的技术滥用风险、公众反弹和内部伦理分歧。这一事件可能推动更多企业建立更严格的伦理护栏,并重新思考其在国防生态中的角色。

TechCrunch28天前原文