memory bank

对于 memory bank 进行了实验,提供了三组实验数据,分别对应 `alpha=0.5`、`alpha=0.3` 和 `alpha=0.05` 三种不同的非独立同分布 (Non-IID) 程度,每组又包含了是否使用内存库 (Memory Bank) 的对比实验。

memory bank

对于 memory bank 进行了实验,提供了三组实验数据,分别对应 alpha=0.5alpha=0.3alpha=0.05 三种不同的非独立同分布 (Non-IID) 程度,每组又包含了是否使用内存库 (Memory Bank) 的对比实验。

数据见memory_bank.txt

以下是对这些实验数据的分析,重点关注方案1中“改进负样本采样策略(动态负样本队列/内存库)”的效果:

实验设置概述

  • 数据集: CIFAR-10
  • 模型: ResNet18
  • 客户端数量: 5
  • 本地训练轮次 (local_epochs): 1
  • 联邦学习轮次 (num_rounds): 20
  • Non-IID程度 (alpha): 0.5 (较弱非IID), 0.3 (中等非IID), 0.05 (强非IID)
  • 对比学习温度 (contrastive_temperature): 0.5
  • 内存库大小 (memory_bank_size): 4096 (在使用内存库的实验中)

实验结果分析

我们将提取每个实验配置在每轮结束后的 The test accuracy (with prototype) of OneShotOurs+Ensemble 指标,并进行对比。

1. alpha = 0.5 (较弱 Non-IID)

轮次 (Round)无内存库准确率 (%)有内存库准确率 (%)差异 (有 - 无)
040.4535.07-5.38
147.0442.10-4.94
252.7748.56-4.21
358.0552.72-5.33
462.4158.57-3.84
564.6061.31-3.29
666.5564.99-1.56
769.0164.88-4.13
871.4670.36-1.10
972.8269.93-2.89
1073.6672.59-1.07
1175.6872.42-3.26
1276.9672.92-4.04
1376.7474.59-2.15
1476.8775.68-1.19
1577.9276.15-1.77
1679.0377.64-1.39
1779.8178.54-1.27
1880.4178.51-1.90
1980.4179.28-1.13
2081.5579.26-2.29

alpha=0.5 这种较弱的 Non-IID 场景下,不使用内存库的基线模型表现略优于或与使用内存库的模型接近。初期,使用内存库的模型甚至表现更差。随着训练的进行,两者差距缩小,但基线模型仍保持微弱优势。这可能表明在数据异构性不那么极端时,引入内存库带来的额外复杂度或负样本噪声反而可能稍微影响模型的收敛速度或最终性能。

2. alpha = 0.3 (中等 Non-IID)

轮次 (Round)无内存库准确率 (%)有内存库准确率 (%)差异 (有 - 无)
030.3726.13-4.24
140.7435.91-4.83
244.7939.79-5.00
349.6645.86-3.80
452.9049.69-3.21
557.0252.77-4.25
657.4654.58-2.88
761.5157.85-3.66
861.9860.75-1.23
964.4661.55-2.91
1065.8763.19-2.68
1167.2864.71-2.57
1268.8565.31-3.54
1369.7765.27-4.50
1470.5067.05-3.45
1570.2867.25-3.03
1671.9569.59-2.36
1772.1168.49-3.62
1871.9470.05-1.89
1973.8972.00-1.89
2074.3070.67-3.63

alpha=0.3 的中等 Non-IID 场景下,情况与 alpha=0.5 类似,不使用内存库的基线模型在测试准确率上仍然保持着优势。虽然两个模型的准确率都在提高,但内存库的引入似乎没有带来预期的性能提升,反而导致了轻微的下降。这进一步印证了之前的观察。

3. alpha = 0.05 (强 Non-IID)

轮次 (Round)无内存库准确率 (%)有内存库准确率 (%)差异 (有 - 无)
028.2930.93+2.64
134.5030.00-4.50
235.4031.13-4.27
338.1935.44-2.75
440.6237.77-2.85
541.1637.44-3.72
643.8339.75-4.08
745.9942.00-3.99
847.8743.23-4.64
949.9544.67-5.28
1049.7345.34-4.39
1150.0346.69-3.34
1252.5846.14-6.44
1352.6249.79-2.83
1454.2450.52-3.72
1554.4752.01-2.46
1656.5551.16-5.39
1756.7952.59-4.20
1856.1250.87-5.25
1958.1051.78-6.32
2057.8452.14-5.70

alpha=0.05 这种最强的 Non-IID 场景下,虽然在第0轮(初始化阶段)使用内存库的模型表现稍好,但在随后的训练中,不使用内存库的基线模型迅速反超,并持续保持明显的优势。两者的差距在某些轮次甚至超过5-6个百分点,这表明在当前设置下,内存库并没有有效地缓解强 Non-IID 数据带来的挑战,反而可能加剧了性能下降。

总结和结论

针对 FAFI 框架并采用“改进负样本采样策略(动态负样本队列/内存库)”这一优化方案似乎未能带来性能提升,反而导致了测试准确率的下降。 尤其是在数据异构性较强 (alpha=0.05) 的情况下,性能差距更为显著。

初步推测核心原因是内存库放大了本地数据偏见,而非引入了全局多样性:我们期望的是全局类别多样性(即包含来自所有类别的数据),而该实现提供的仅仅是时间上的多样性(即包含了来自历史批次的样本)。在严格的 One-shot FL 隔离训练下,这两者是完全不同的。最终,内存库非但没有缓解模型不一致性,反而通过强化本地的偏见,极大地加剧了这个问题。

实验数据印证了上述理论:

  • alpha = 0.5 (较弱 Non-IID):

    • 每个客户端的数据分布虽然有偏见,但仍然包含了不少类别。
    • 因此,本地内存库中也包含了相对多样的类别。
    • 它没有引入太多全局知识,但也没有造成毁灭性的偏见放大。性能下降很可能是由于内存库的噪声(例如,早期训练时存入的不成熟特征)或更新延迟等次要因素造成的。
  • alpha = 0.05 (强 Non-IID):

    • 每个客户端的数据只包含极少数几个类别。
    • 本地内存库变成了本地偏见的放大器。
    • 模型被强制进行过度专业化训练,完全丧失了对未见类别的泛化能力,导致特征空间严重不一致。
    • 聚合后的全局模型性能因此急剧下降,造成了巨大性能鸿沟。

结论: 在严格的 One-shot FL 框架下,一个完全在客户端本地构建和维护的内存库,其本质是本地知识的蓄水池。因此,它无法解决 Non-IID 带来的类别缺失问题,反而会因为强化局部监督信号而反作用与全局模型的聚合。

保留所有权。
comments powered by Disqus