SheepNav
新上线今天0 投票

Miro 借助 Amazon Bedrock 将软件缺陷路由准确率提升六倍,解决时间从数天缩短至数小时

在 Miro,每年因缺陷误路由和重复分配导致的累计生产力损失高达 42 年。通过与 AWS PACE 团队合作,Miro 开发了基于 Amazon Bedrock 的 BugManager 解决方案,将团队重新分配次数减少六倍,缺陷解决时间从数天缩短至数小时。

挑战:从近 100 个团队中准确路由缺陷

Miro 作为拥有超过 9500 万用户的 AI 创新工作空间,其工程组织包含近 100 个团队,每个团队负责特定产品领域。缺陷报告往往杂乱无章,包含文本、堆栈跟踪、截图甚至视频,且缺乏上下文。此外,团队结构动态变化——合并、新设、产品演进——使得传统基于规则或简单机器学习的方法难以维持高准确率。

解决方案:基于 Amazon Bedrock 的 BugManager

Miro 与 AWS PACE 团队合作,利用 Amazon Bedrock 构建了 BugManager。该方案通过以下关键步骤实现高精度路由:

  1. 增强上下文:自动从 GitHub PR、Confluence 文档、README 文件和历史工单中提取相关信息,丰富缺陷报告。
  2. 多模态理解:利用 Bedrock 基础模型的能力处理文本、堆栈跟踪、截图等异构数据。
  3. 动态适应:模型能够适应团队重组和职责变化,无需频繁重新训练。

成果:六倍更少的重新分配,五倍更快的解决时间

BugManager 上线后,Miro 团队观察到显著改进:

  • 团队重新分配次数减少 6 倍:缺陷首次分配即命中正确团队的比例大幅提升。
  • 解决时间缩短 5 倍:从数天降至数小时,减少了不必要的上下文切换。
  • 累计生产力损失:原本每年 42 年的浪费被大幅削减。

技术架构亮点

BugManager 的架构充分利用了 Amazon Bedrock 的托管基础模型服务,无需管理底层基础设施。核心流程包括:

  • 缺陷报告进入后,通过 Bedrock API 调用预训练模型进行语义分析。
  • 模型输出候选团队及置信度分数,并结合实时组织数据(如团队职责映射)进行最终决策。
  • 系统持续从人工纠正中学习,通过反馈循环提升准确率。

Miro 的案例表明,生成式 AI 在 DevOps 领域的应用正从“辅助”走向“核心”。通过将 AI 嵌入缺陷路由这一关键环节,不仅提升了开发效率,更直接改善了产品交付质量和客户满意度。

延伸阅读

  1. Ubuntu 26.04 vs. Fedora 44:多年测试两大Linux发行版后的最终结论
  2. AWS 上线 Claude Platform:Anthropic 原生平台正式登陆 AWS 账户
  3. 利用 Amazon Nova 多模态嵌入推动制造业智能化
查看原文