关键词:
联邦学习
异质性数据
模型聚合
客户端选择
摘要:
随着物联网和人工智能技术的飞速发展,接入物联网的设备愈来愈多,用户设备上的数据也日益剧增。深度学习可以利用这些海量数据训练出更好的模型,为用户提供更智能的服务。但这种数据的处理往往需要将数据传输到云中进行集中式训练,大量原始数据的传输会造成网络的拥塞并带来隐私数据泄露的风险。联邦学习的诞生解决了这一问题,它允许众多客户端不必上传原始数据,在本地就可以联合训练全局模型,可有效地保护数据隐私并减少通信成本,并且在客户端数据独立同分布(Independent and Identically Distributed,ⅡD)情况下可得到与集中式训练相差无几的性能。但在实际场景中,用户设备上的数据往往是非独立同分布的(Non Independent and Identically Distributed,Non-ⅡD),即数据具有异质性,这将导致联邦学习的性能急剧下降,限制其在实际中的应用。因此,数据异质性已成为联邦学习应用到实际场景中的一个挑战。
在联邦学习的训练过程中,模型聚合和客户端选择是两个关键的步骤。模型聚合决定如何基于现有本地模型得到性能更优的全局模型,客户端选择决定能否挑选到高质量的本地模型。在异质性数据场景下,现有的联邦学习算法中模型聚合和客户端选择仍存在以下问题:在模型聚合环节,现有方法未充分考虑客户端数据分布差异性,使得数据分布情况较差的客户端拥有较大聚合权重,从而导致全局模型准确率下降。在客户端选择环节,现有方法未考虑到异质性数据带来的本地更新偏离全局更新的问题,无法精确选择高质量的客户端,导致全局模型收敛速度降低。本文针对以上问题,主要工作如下:
(1)针对模型聚合方法未充分考虑客户端数据分布差异性,导致全局模型准确率降低的问题,提出一种动态加权聚合方法DW-Fed。该算法在现有算法对客户端数据量大小的考量上,使用概率学中常用的JS散度(Jensen-Shannon divergence)对客户端本地数据集的平衡程度进行量化,再引入客户端模型精度,根据这三种指标组成联合权重,设计新的模型聚合策略。在MNIST和CIFAR-10数据集下的实验结果表明,与FedAvg和Scaffold算法相比,本文提出的方法可有效提高异质性场景下联邦学习的准确率,且能加快收敛。
(2)针对联邦学习中无法精确选择高质量客户端,导致全局模型收敛速度降低的问题,提出一种动态客户端选择方法DCS-Fed。异质性数据会对客户端更新方向造成影响,本文采用余弦相似度定义该影响,并联合客户端训练损失值组成客户端质量指标。通过频繁选取质量高的客户端加入训练,来缓解异质性数据对联邦学习的负面影响。在MNIST和CIFAR-10数据集上与FedAvg和FedProx算法进行对比实验,结果表明,在异质性数据场景中该方法可有效提高联邦学习的收敛速度和准确率。