SecretFlow项目中FedProx算法训练BN层模型的问题分析与解决方案
2025-07-01 15:58:24作者:翟萌耘Ralph
问题背景
在SecretFlow项目的联邦学习实现中,FedProx算法在训练带有批量归一化(Batch Normalization, BN)层的神经网络模型时出现了不收敛的问题。经过开发者排查,发现这是由于算法实现中缺少设置模型训练模式的语句导致的。
技术细节分析
批量归一化是深度学习中常用的技术,它在训练和推理阶段有不同的行为模式:
- 训练模式:BN层会计算当前批次的均值和方差,并使用它们来归一化数据,同时更新运行统计量
- 评估模式:BN层使用训练期间积累的运行统计量,而不是当前批次的统计量
在PyTorch框架中,需要通过model.train()和model.eval()来显式切换这两种模式。而SecretFlow的FedProx实现中遗漏了这一关键设置,导致BN层始终处于评估模式,无法正确更新统计量,最终造成模型无法收敛。
问题复现与验证
开发者使用CIFAR-100数据集进行了验证实验,数据分布在10个参与方之间,采用狄利克雷分布(β=0.5)进行划分。网络结构包含:
- 特征提取部分:多层卷积+BN层+ReLU的组合
- 分类部分:2层全连接网络
实验参数配置为:
- 优化器:Adam (学习率5e-4)
- 训练轮次:75
- 权重衰减:1e-4
- FedProx参数μ:0.001
实验结果表明,添加self.model.train()语句后,模型能够正常收敛,验证了问题的根源。
解决方案
修复方案非常简单但关键:在FedProx的train_step方法开始时添加模型训练模式的设置:
def train_step(self, weights: np.ndarray, cur_steps: int, train_steps: int, **kwargs):
assert self.model is not None, "Model cannot be none, please give model define"
self.model.train() # 关键修复
...
经验总结
这个案例提醒我们:
- 在实现联邦学习算法时,需要考虑底层框架的特定行为
- 对于包含BN层的模型,训练模式设置是不可忽视的细节
- 分布式训练中的问题有时表现与集中式训练不同,需要特别关注
- 模型聚合时需要注意处理BN层特有的参数(如num_batches_tracked)
SecretFlow团队已经确认将在后续版本中修复这一问题,这对于使用FedProx算法训练复杂神经网络模型的用户来说是一个重要的改进。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
热门内容推荐
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
569
3.84 K
Ascend Extension for PyTorch
Python
379
453
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
893
676
暂无简介
Dart
802
199
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
350
203
昇腾LLM分布式训练框架
Python
118
147
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
68
20
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.37 K
781