Featured image of post week10报告

week10报告

week10报告

Featured image of post 读Does one-shot give the best shot? Mitigating Model Inconsistency in One-shot Federated Learning.

读Does one-shot give the best shot? Mitigating Model Inconsistency in One-shot Federated Learning.

将多轮的传统联邦学习转变为一次性联邦学习(OFL)显著减少了通信负担,并朝着实际部署迈出了一大步。然而,这项工作通过经验和理论揭示了现有的OFL方法陷入了一个“垃圾(不一致的一次性局部模型)输入,垃圾(性能退化的全局模型)输出”的陷阱。这种不一致性表现为特征表示和样本预测的分歧。本文提出了一个新颖的OFL框架FAFI,它增强了客户端的一次性训练,以从根本上克服劣质局部模型的上传问题。具体来说,我们采用了无监督特征对齐和类别原型学习来进行客户端的局部训练,以在表示局部样本时保持一致性。在此基础上,FAFI使用信息感知特征融合和原型聚合来进行全局推理。在三个数据集上的广泛实验证明了FAFI的有效性,与11个OFL基线方法相比,它展现了更优越的性能(准确率提升10.86%)。

Featured image of post week09报告

week09报告

week09报告