新上线今天0 投票
Miro 借助 Amazon Bedrock 将软件缺陷路由准确率提升六倍,解决时间从数天缩短至数小时
在 Miro,每年因缺陷误路由和重复分配导致的累计生产力损失高达 42 年。通过与 AWS PACE 团队合作,Miro 开发了基于 Amazon Bedrock 的 BugManager 解决方案,将团队重新分配次数减少六倍,缺陷解决时间从数天缩短至数小时。
挑战:从近 100 个团队中准确路由缺陷
Miro 作为拥有超过 9500 万用户的 AI 创新工作空间,其工程组织包含近 100 个团队,每个团队负责特定产品领域。缺陷报告往往杂乱无章,包含文本、堆栈跟踪、截图甚至视频,且缺乏上下文。此外,团队结构动态变化——合并、新设、产品演进——使得传统基于规则或简单机器学习的方法难以维持高准确率。
解决方案:基于 Amazon Bedrock 的 BugManager
Miro 与 AWS PACE 团队合作,利用 Amazon Bedrock 构建了 BugManager。该方案通过以下关键步骤实现高精度路由:
- 增强上下文:自动从 GitHub PR、Confluence 文档、README 文件和历史工单中提取相关信息,丰富缺陷报告。
- 多模态理解:利用 Bedrock 基础模型的能力处理文本、堆栈跟踪、截图等异构数据。
- 动态适应:模型能够适应团队重组和职责变化,无需频繁重新训练。
成果:六倍更少的重新分配,五倍更快的解决时间
BugManager 上线后,Miro 团队观察到显著改进:
- 团队重新分配次数减少 6 倍:缺陷首次分配即命中正确团队的比例大幅提升。
- 解决时间缩短 5 倍:从数天降至数小时,减少了不必要的上下文切换。
- 累计生产力损失:原本每年 42 年的浪费被大幅削减。
技术架构亮点
BugManager 的架构充分利用了 Amazon Bedrock 的托管基础模型服务,无需管理底层基础设施。核心流程包括:
- 缺陷报告进入后,通过 Bedrock API 调用预训练模型进行语义分析。
- 模型输出候选团队及置信度分数,并结合实时组织数据(如团队职责映射)进行最终决策。
- 系统持续从人工纠正中学习,通过反馈循环提升准确率。
Miro 的案例表明,生成式 AI 在 DevOps 领域的应用正从“辅助”走向“核心”。通过将 AI 嵌入缺陷路由这一关键环节,不仅提升了开发效率,更直接改善了产品交付质量和客户满意度。