Amazon Bedrock 推出细粒度成本归因功能,助力AI推理成本精细化管理
随着AI推理在云支出中的占比日益增长,企业迫切需要更精细的成本追踪工具来优化预算、分摊费用并支持财务规划。AWS近日宣布为其托管式生成式AI服务Amazon Bedrock推出细粒度成本归因功能。这一新特性旨在解决企业在使用多模型AI服务时面临的成本分摊难题。
功能核心:自动追踪至IAM主体
新功能的核心在于自动化。Amazon Bedrock现在能够自动将推理成本归因到发起调用的IAM主体上。这里的IAM主体可以是一个IAM用户、一个由应用程序担任的角色,或者来自Okta、Entra ID等身份提供商的联合身份。
- 无需管理额外资源:该功能开箱即用,无需用户创建或管理任何额外的监控资源。
- 无缝集成现有流程:对用户现有的工作流和调用方式无需做任何改变,成本数据会自动流向AWS账单系统。
- 跨模型统一归因:无论用户调用的是Claude、Llama还是其他Bedrock支持的模型,成本都能统一归因到对应的IAM主体。
成本数据如何呈现?
归因后的详细成本数据会体现在AWS成本和使用情况报告(CUR 2.0) 中。用户只需在数据导出配置中启用IAM主体数据,即可在报告中看到类似以下格式的记录:
| line_item_iam_principal | line_item_usage_type | line_item_unblended_cost |
|---|---|---|
| arn:aws:iam::123456789012:user/alice | USE1-Claude4.6Sonnet-input-tokens | $0.069 |
| arn:aws:iam::123456789012:user/alice | USE1-Claude4.6Sonnet-output-tokens | $0.214 |
| arn:aws:iam::123456789012:user/bob | USE1-Claude4.6Opus-input-tokens | $0.198 |
| arn:aws:iam::123456789012:user/bob | USE1-Claude4.6Opus-output-tokens | $0.990 |
从上表可以清晰地看到:
- 用户Alice 使用了Claude 4.6 Sonnet模型,其输入和输出令牌分别产生了成本。
- 用户Bob 使用了Claude 4.6 Opus模型,并产生了相应的成本。
这种颗粒度使得团队负责人或财务人员能够精确地了解“谁”在使用“哪个模型”,以及具体的花费是多少。
进阶:通过标签实现多维聚合分析
仅归因到个人或应用角色可能还不够。为了支持按团队、项目或成本中心进行更高维度的成本聚合与分析,AWS提供了成本分配标签功能。
标签可以通过两种方式附加到成本数据上:
- 主体标签:直接附加在IAM用户或角色上。设置一次,该主体发起的每个请求的成本都会带上此标签。
- 会话标签:在调用时动态传递,适用于更灵活的临时性成本追踪场景。
打上标签后,用户可以在AWS Cost Explorer 和CUR报告 中,轻松地按这些自定义维度(如“团队=研发部”、“项目=智能客服”)对Bedrock的推理成本进行筛选、分组和可视化分析。这极大地方便了企业内部成本分摊和项目预算管理。
行业背景与意义
在生成式AI大规模落地的初期,许多企业面临“AI黑盒”挑战——即虽然总支出清晰,但难以厘清各部门、各项目乃至各模型的具体消耗。这不仅影响成本优化(无法针对性削减低效调用),也给内部财务结算带来困难。
Amazon Bedrock此次推出的细粒度成本归因,正是直击这一痛点。它将AI推理从一项“笼统的云服务支出”,转变为可精确计量、可追溯责任的“生产性资源消耗”。这对于正在将AI能力深度集成到业务流程中的企业而言,是一项至关重要的基础设施升级。它标志着云厂商在AI服务的管理工具上正走向成熟,从单纯提供算力,转向提供全生命周期的成本可见性与控制力。