SheepNav
新上线今天0 投票

Amazon Bedrock 推出细粒度成本归因功能,助力AI推理成本精细化管理

随着AI推理在云支出中的占比日益增长,企业迫切需要更精细的成本追踪工具来优化预算、分摊费用并支持财务规划。AWS近日宣布为其托管式生成式AI服务Amazon Bedrock推出细粒度成本归因功能。这一新特性旨在解决企业在使用多模型AI服务时面临的成本分摊难题。

功能核心:自动追踪至IAM主体

新功能的核心在于自动化。Amazon Bedrock现在能够自动将推理成本归因到发起调用的IAM主体上。这里的IAM主体可以是一个IAM用户、一个由应用程序担任的角色,或者来自Okta、Entra ID等身份提供商的联合身份。

  • 无需管理额外资源:该功能开箱即用,无需用户创建或管理任何额外的监控资源。
  • 无缝集成现有流程:对用户现有的工作流和调用方式无需做任何改变,成本数据会自动流向AWS账单系统。
  • 跨模型统一归因:无论用户调用的是Claude、Llama还是其他Bedrock支持的模型,成本都能统一归因到对应的IAM主体。

成本数据如何呈现?

归因后的详细成本数据会体现在AWS成本和使用情况报告(CUR 2.0) 中。用户只需在数据导出配置中启用IAM主体数据,即可在报告中看到类似以下格式的记录:

line_item_iam_principal line_item_usage_type line_item_unblended_cost
arn:aws:iam::123456789012:user/alice USE1-Claude4.6Sonnet-input-tokens $0.069
arn:aws:iam::123456789012:user/alice USE1-Claude4.6Sonnet-output-tokens $0.214
arn:aws:iam::123456789012:user/bob USE1-Claude4.6Opus-input-tokens $0.198
arn:aws:iam::123456789012:user/bob USE1-Claude4.6Opus-output-tokens $0.990

从上表可以清晰地看到:

  • 用户Alice 使用了Claude 4.6 Sonnet模型,其输入和输出令牌分别产生了成本。
  • 用户Bob 使用了Claude 4.6 Opus模型,并产生了相应的成本。

这种颗粒度使得团队负责人或财务人员能够精确地了解“谁”在使用“哪个模型”,以及具体的花费是多少。

进阶:通过标签实现多维聚合分析

仅归因到个人或应用角色可能还不够。为了支持按团队、项目或成本中心进行更高维度的成本聚合与分析,AWS提供了成本分配标签功能。

标签可以通过两种方式附加到成本数据上:

  1. 主体标签:直接附加在IAM用户或角色上。设置一次,该主体发起的每个请求的成本都会带上此标签。
  2. 会话标签:在调用时动态传递,适用于更灵活的临时性成本追踪场景。

打上标签后,用户可以在AWS Cost ExplorerCUR报告 中,轻松地按这些自定义维度(如“团队=研发部”、“项目=智能客服”)对Bedrock的推理成本进行筛选、分组和可视化分析。这极大地方便了企业内部成本分摊和项目预算管理。

行业背景与意义

在生成式AI大规模落地的初期,许多企业面临“AI黑盒”挑战——即虽然总支出清晰,但难以厘清各部门、各项目乃至各模型的具体消耗。这不仅影响成本优化(无法针对性削减低效调用),也给内部财务结算带来困难。

Amazon Bedrock此次推出的细粒度成本归因,正是直击这一痛点。它将AI推理从一项“笼统的云服务支出”,转变为可精确计量、可追溯责任的“生产性资源消耗”。这对于正在将AI能力深度集成到业务流程中的企业而言,是一项至关重要的基础设施升级。它标志着云厂商在AI服务的管理工具上正走向成熟,从单纯提供算力,转向提供全生命周期的成本可见性与控制力。

延伸阅读

  1. Sam Altman的World项目寻求扩大其人类验证帝国版图,首站瞄准Tinder
  2. OpenAI Sora 负责人离职,公司战略聚焦编码与企业应用
  3. 苹果初代AirTag追踪依旧可靠,四件装迎来史低价
查看原文