Codex 定价调整:从按消息计费转向与 API 令牌使用量挂钩
OpenAI 调整 Codex 定价策略:从按消息计费转向按 API 令牌使用量计费
OpenAI 近日宣布,自 2026 年 4 月 2 日起,其代码生成模型 Codex 的定价结构将发生重要变化:从原先的按消息(per-message)计费模式,调整为与 API 令牌使用量 直接挂钩。这一调整主要影响 新的和现有的 ChatGPT Business 客户 以及 新的 ChatGPT Enterprise 计划 用户。现有 Plus、Pro 和 Enterprise/Edu 计划的用户暂时沿用旧费率表,但将在未来几周内迁移至新费率。
定价模式的核心变化
- 旧模式:基于平均每条消息的估算进行计费,不够透明,用户难以精确预测成本。
- 新模式:根据实际使用的 输入令牌(Input Tokens)、缓存输入令牌(Cached Input Tokens) 和 输出令牌(Output Tokens) 数量计算费用,单位为“每百万令牌信用点数(credits per million tokens)”。
这种变化旨在提供更清晰的成本视图,让用户能直接看到输入、缓存输入和输出如何影响信用消耗。例如,在代码生成任务中,更长的输入提示(更多输入令牌)或更复杂的代码输出(更多输出令牌)将导致更高的费用。
新费率表示例
根据公布的费率表,不同模型的信用点数消耗差异显著:
- GPT-5.4:输入令牌 62.50 信用点数/百万,缓存输入令牌 6.250 信用点数/百万,输出令牌 375 信用点数/百万。
- GPT-5.4-Mini:输入令牌 18.75 信用点数/百万,缓存输入令牌 1.875 信用点数/百万,输出令牌 113 信用点数/百万。
- GPT-5.3-Codex(用于代码审查):输入令牌 43.75 信用点数/百万,缓存输入令牌 4.375 信用点数/百万,输出令牌 350 信用点数/百万。
注意:快速模式(Fast mode)的信用点数消耗为普通模式的 2 倍。GPT-5.3-Codex-Spark 模型可能作为研究预览提供,其费率尚未最终确定。
对开发者和企业的影响
OpenAI 估计,平均而言,Codex 的成本约为 每月每开发者 100-200 美元,但实际费用因使用模型、运行实例数量和用户活动等因素而有很大差异。新模式可能使高频率、大令牌用量的用户成本上升,尤其是那些依赖复杂代码生成或长上下文交互的场景。相反,对于令牌使用量较低或优化了提示工程的用户,成本可能更可控。
行业背景与趋势
这一调整反映了 AI 服务定价的普遍趋势:从简单的按次或按消息计费,转向更精细化的 按资源消耗(如令牌、计算时间)计费。类似地,其他 AI 提供商(如 Anthropic、Google Cloud AI)也越来越多地采用基于令牌的定价,以更公平地反映模型的实际使用成本。对于企业用户,这意味着需要更密切地监控 API 使用模式,并可能调整开发流程以优化令牌效率,例如通过提示压缩或缓存策略来减少输入令牌消耗。
用户应对建议
- 仔细审核费率表:所有用户都应仔细查看新旧费率表,了解定价变化及其对自身计划的影响。
- 评估使用模式:分析当前的 Codex 使用情况,特别是输入、输出令牌的比例,以预测成本变化。
- 优化令牌使用:考虑采用最佳实践,如精简提示、利用缓存输入功能(费率较低)来降低成本。
- 关注迁移时间线:现有 Plus、Pro 和 Enterprise/Edu 用户需注意,迁移至新费率将在未来几周内进行,建议提前规划。
总体而言,这次定价调整是 OpenAI 在商业化进程中的一步,旨在使计费更透明、更贴合实际资源使用,但同时也要求用户提升成本管理意识。随着 AI 工具在企业中的普及,类似的定价优化可能会成为行业常态。