新上线今天0 投票
FedACT:异构数据源下的并发联邦智能系统
背景:联邦学习的多任务并发挑战
联邦学习(FL)作为一种隐私保护下的分布式机器学习范式,已广泛应用于医疗、金融等敏感数据场景。然而,现有研究大多聚焦于优化单个FL任务的训练效率,现实场景中往往需要多个FL任务在同一设备池上并发执行。例如,一家医院可能同时运行疾病诊断、影像分割等多个模型,共享同一批终端设备。
传统方法将单任务优化技术简单套用于多任务系统,忽视了设备异构性与资源争用问题:不同设备的计算能力、网络带宽差异显著,且各任务对资源的需求也各不相同。这导致训练效率低下,模型质量参差不齐。
FedACT:对齐评分驱动的动态调度
针对上述挑战,来自路易斯安那大学拉斐特分校、伊利诺伊大学厄巴纳-香槟分校等机构的研究者提出了 FedACT(Concurrent Federated Intelligence across Heterogeneous Data Sources)。其核心创新在于:
- 对齐评分机制:实时评估每台设备的可用资源(如CPU、内存、带宽)与每个任务资源需求之间的匹配程度。评分越高,说明设备越适合执行该任务。
- 参与公平性约束:确保所有设备在多个任务间均衡参与,避免某台设备被单一任务过度占用,从而提升全局模型的精度。
- 最优调度规划:优先将高评分设备分配给对应任务,同时保证各任务获得公平的设备参与机会,最终目标是最小化所有任务的平均完成时间(JCT)。
实验验证:性能大幅提升
研究团队在多个基准数据集(如CIFAR-10、FEMNIST)上进行了全面实验,与现有最先进的基线方法(如FedAvg、AFL)对比:
- JCT降低:FedACT将平均任务完成时间最高缩减8.3倍。
- 模型精度提升:在异构设备场景下,全局模型准确率最高提升44.5%。
行业意义与未来展望
FedACT的提出填补了多任务联邦学习资源调度领域的空白。随着边缘计算和物联网设备的普及,同一设备集群承载多个FL任务将成为常态。该工作不仅提升了系统效率,也通过公平性机制保障了模型质量,为实际部署提供了可行的技术路径。
未来的研究方向可能包括:动态任务优先级调整、跨组织联邦调度策略,以及与差分隐私等安全机制的融合。