SheepNav
GitHub 将按实际 AI 使用量向 Copilot 用户收费
新上线昨天0 投票

GitHub 将按实际 AI 使用量向 Copilot 用户收费

GitHub 宣布,自 6 月 1 日起,其 AI 编程助手 Copilot 将切换至基于使用量的计费模式。此举旨在“让定价与实际使用更匹配”,并被视为应对 AI 计算资源需求激增、维持 Copilot 财务可持续性的必要举措。

旧模式弊端:成本与价格脱钩

目前,Copilot 订阅用户每月获得固定数量的“请求”和“高级请求”配额,无论任务复杂度如何,消耗的配额相同。GitHub 指出:“一次快速聊天提问和一次长达数小时的自主编码会话,对用户来说成本是一样的。”这种“一刀切”的方式导致轻度用户补贴重度用户,而后者消耗的推理计算资源远超前者。随着 AI 模型日益复杂,GitHub 表示已“吸收了大部分不断攀升的推理成本”,但将各类高级请求混为一谈的做法“已不可持续”。

新计费体系:AI 积分 + 按 Token 计费

新模式下,订阅用户每月将获得与订阅费等额的 AI 积分(AI Credits)。超出部分将按 Token 消耗量(包括输入、输出和缓存 Token)计费,费率参照各模型的公开 API 定价。不同模型的费率差异显著:例如 OpenAI 的高端 GPT 模型,输出 Token 价格从 GPT-5.4 Mini 的 每百万 Token 4.5 美元 到 GPT-5.5 的 每百万 Token 30 美元 不等。同时,模型“思考”时间越长,消耗的 Token 越多,成本也越高。

保留免费项与新增付费项

简单 AI 功能如 代码补全Next Edit 将继续免费,不消耗 AI 积分。但 代码审查(Code Review)将额外消耗 GitHub Actions 分钟数。GitHub 承诺在 6 月 1 日前推出“预览账单”工具,帮助用户预估新定价下自己的使用成本。

行业背景:成本压力下的必然选择

上周,AI 批评者 Ed Zitron 援引“泄露的内部文件”报道了这一变化,文件显示 GitHub 正面临巨大的成本压力。此次调整并非孤例——随着大模型推理成本居高不下,越来越多的 AI 服务商从固定订阅转向按量计费,以平衡营收与支出。对于重度 Copilot 用户而言,新规意味着使用成本将大幅上升;而对于轻度用户,可能迎来更低的基础订阅价。GitHub 此举能否在开发者体验与商业可持续性之间找到平衡,仍有待观察。

延伸阅读

  1. 无需矩阵组装与训练:随机PDE能量驱动框架实现高效稳定求解
  2. 多智能体深度强化学习中的图神经网络通信综述
  3. 信息瓶颈理论统一KV缓存驱逐策略,CapKV实现理论驱动的内存优化
查看原文