SheepNav
新上线今天175 投票

Codex 定价调整:从按消息计费转向与 API 令牌使用量挂钩

OpenAI 调整 Codex 定价策略:从按消息计费转向按 API 令牌使用量计费

OpenAI 近日宣布,自 2026 年 4 月 2 日起,其代码生成模型 Codex 的定价结构将发生重要变化:从原先的按消息(per-message)计费模式,调整为与 API 令牌使用量 直接挂钩。这一调整主要影响 新的和现有的 ChatGPT Business 客户 以及 新的 ChatGPT Enterprise 计划 用户。现有 Plus、Pro 和 Enterprise/Edu 计划的用户暂时沿用旧费率表,但将在未来几周内迁移至新费率。

定价模式的核心变化

  • 旧模式:基于平均每条消息的估算进行计费,不够透明,用户难以精确预测成本。
  • 新模式:根据实际使用的 输入令牌(Input Tokens)缓存输入令牌(Cached Input Tokens)输出令牌(Output Tokens) 数量计算费用,单位为“每百万令牌信用点数(credits per million tokens)”。

这种变化旨在提供更清晰的成本视图,让用户能直接看到输入、缓存输入和输出如何影响信用消耗。例如,在代码生成任务中,更长的输入提示(更多输入令牌)或更复杂的代码输出(更多输出令牌)将导致更高的费用。

新费率表示例

根据公布的费率表,不同模型的信用点数消耗差异显著:

  • GPT-5.4:输入令牌 62.50 信用点数/百万,缓存输入令牌 6.250 信用点数/百万,输出令牌 375 信用点数/百万。
  • GPT-5.4-Mini:输入令牌 18.75 信用点数/百万,缓存输入令牌 1.875 信用点数/百万,输出令牌 113 信用点数/百万。
  • GPT-5.3-Codex(用于代码审查):输入令牌 43.75 信用点数/百万,缓存输入令牌 4.375 信用点数/百万,输出令牌 350 信用点数/百万。

注意:快速模式(Fast mode)的信用点数消耗为普通模式的 2 倍。GPT-5.3-Codex-Spark 模型可能作为研究预览提供,其费率尚未最终确定。

对开发者和企业的影响

OpenAI 估计,平均而言,Codex 的成本约为 每月每开发者 100-200 美元,但实际费用因使用模型、运行实例数量和用户活动等因素而有很大差异。新模式可能使高频率、大令牌用量的用户成本上升,尤其是那些依赖复杂代码生成或长上下文交互的场景。相反,对于令牌使用量较低或优化了提示工程的用户,成本可能更可控。

行业背景与趋势

这一调整反映了 AI 服务定价的普遍趋势:从简单的按次或按消息计费,转向更精细化的 按资源消耗(如令牌、计算时间)计费。类似地,其他 AI 提供商(如 Anthropic、Google Cloud AI)也越来越多地采用基于令牌的定价,以更公平地反映模型的实际使用成本。对于企业用户,这意味着需要更密切地监控 API 使用模式,并可能调整开发流程以优化令牌效率,例如通过提示压缩或缓存策略来减少输入令牌消耗。

用户应对建议

  • 仔细审核费率表:所有用户都应仔细查看新旧费率表,了解定价变化及其对自身计划的影响。
  • 评估使用模式:分析当前的 Codex 使用情况,特别是输入、输出令牌的比例,以预测成本变化。
  • 优化令牌使用:考虑采用最佳实践,如精简提示、利用缓存输入功能(费率较低)来降低成本。
  • 关注迁移时间线:现有 Plus、Pro 和 Enterprise/Edu 用户需注意,迁移至新费率将在未来几周内进行,建议提前规划。

总体而言,这次定价调整是 OpenAI 在商业化进程中的一步,旨在使计费更透明、更贴合实际资源使用,但同时也要求用户提升成本管理意识。随着 AI 工具在企业中的普及,类似的定价优化可能会成为行业常态。

延伸阅读

  1. 微软服务条款警示:Copilot 仅供娱乐,用户需自行承担风险
  2. Suno成音乐版权噩梦:AI平台轻易生成碧昂丝等明星歌曲仿制品
  3. 太空数据中心能否支撑SpaceX的巨额估值?
查看原文