SheepNav
新上线今天0 投票

用 SageMaker AI 模型和 MLflow 构建 Strands 智能体

概述

企业构建 AI 智能体时,往往需要超越托管基础模型(FM)服务的能力。它们需要对性能调优、规模化成本优化、合规性与数据驻留、模型选择以及与现有安全架构集成的网络配置进行精细控制。Amazon SageMaker AI 端点正好满足这些需求,它让组织能够控制计算资源、扩展行为和基础设施部署,同时享受 AWS 托管运维层的好处。这些由 SageMaker AI 部署的模型可以驱动 AI 智能体,处理对话工作负载,并与 Amazon Bedrock 上可用的 FM 等编排框架集成。区别在于,组织保留了推理发生方式和位置的架构控制权。

本文演示了如何使用部署在 SageMaker AI 端点上的模型,通过 Strands Agents SDK 构建 AI 智能体。你将学习如何从 SageMaker JumpStart 部署基础模型,将其与 Strands Agents 集成,并使用 SageMaker Serverless MLflow 建立生产级可观测性以进行智能体追踪。此外,我们还将介绍如何在多个模型变体间实施 A/B 测试,并使用 MLflow 指标评估智能体性能,展示如何在你控制的 infrastructure 上构建、部署和持续改进 AI 智能体。

核心技术组件

Strands Agents SDK

Strands Agents SDK 是一个开源 SDK,采用模型驱动的方法,只需几行代码即可构建和运行 AI 智能体。它从简单到复杂的智能体用例都能胜任,支持从本地开发到生产部署的全流程。

Amazon SageMaker JumpStart

Amazon SageMaker JumpStart 是一个机器学习(ML)中心,可以加速你的 ML 之旅。通过它,你可以基于预定义的质量和可责任指标快速评估、比较和选择基础模型,执行文章摘要、图像生成等任务。

SageMaker AI MLflow

SageMaker AI MLflow 是一项托管能力,通过实验跟踪、模型版本管理和部署管理来简化机器学习生命周期。

实践步骤

本文涵盖了以下关键步骤:

  1. 在 SageMaker AI 上部署模型:从 SageMaker JumpStart 部署基础模型。
  2. 集成 Strands 与 SageMaker AI:将部署的 SageMaker AI 模型与 Strands Agents 结合使用。
  3. 设置智能体可观测性:配置 SageMaker AI MLflow 应用以进行智能体追踪。
  4. 实施 A/B 测试与评估:在多个模型变体间进行 A/B 测试,并使用 MLflow 指标评估性能。

对 AI 行业的意义

这一方案为企业提供了在自主控制的基础设施上构建 AI 智能体的完整路径。与完全托管的服务相比,它带来了更高的灵活性和合规性,尤其适合金融、医疗等对数据主权和网络控制有严格要求的行业。结合 MLflow 的可观测性,团队可以持续迭代优化智能体行为,实现从开发到生产的闭环改进。

延伸阅读

  1. GitHub Copilot 将于 6 月 1 日转向按用量计费——为何并不意外
  2. LG便携投影仪CineBeam Q限时促销:直降500美元还送Soundbar
  3. 转网到T-Mobile,立得200美元——这波福利不拿白不拿
查看原文