关键词:
联邦学习
个性化
参数解耦
相似度度量
数据异构性
摘要:
联邦学习作为一种具有隐私保护特性的分布式机器学习范式,在近些年受到学术界和工业界的广泛关注。然而,由于数据异构性的存在,传统联邦学习方法训练得到的单一全局模型在数据间呈非独立同分布的客户端上收敛困难且表现不佳。因此,个性化联邦学习被提出以应对这一挑战,其旨在以联邦的方式为每个客户端定制能在本地数据上具有良好性能的个性化模型。
将模型参数解耦为可共享的主体部分和私有头部的训练策略作为实现个性化联邦学习的主流方法之一,允许所有客户端协作训练模型主体部分以提高模型对数据通用信息的表征能力,而将模型头部留作本地更新以实现个性化。然而,传统的基于参数解耦的个性化联邦学习方法通常将个性化过程限制在数据样本有限的单个客户端本地,忽略了具有相似数据分布的客户端之间的协作带来的性能增益,因此,模型个性化性能仍有较大提升空间。针对上述问题与机遇,本文给出了两种基于参数解耦的模型个性化训练方案,具体如下:
(1)针对现有的基于参数解耦的个性化联邦学习方法缺乏对相似客户端之间进行协作学习的认知能力的问题,本文提出了基于相似度认知的个性化联邦部分适应算法CFPA,旨在以一种安全且高效的方式充分挖掘并利用相似客户端之间的协作潜能,通过软分组加权聚合(SWA)策略提高模型的个性化性能。具体地,CFPA将模型参数解耦为主体部分和头部,并要求所有客户端使用一个随机初始化的固定头部,协作训练得到一个联邦预个性化模型。然后,通过从卷积层输出特征图中提取的能表征本地数据分布情况的分布知识,有效度量客户端之间的相似性。与需要依据经验设置聚类阈值或簇数的显式聚簇策略不同,CFPA最终在相似度矩阵的指导下,以加权联邦适应的方式为每个客户端学习个性化模型。本文通过与经典联邦学习方法进行对比以及消融实验,验证了CFPA在性能上的优越性以及框架内各模块的有效性。
(2)在已提出的解决方案的基础上,考虑到在服务器上聚合模型参数时,除客户端数据量外,客户端局部模型不同组件内的层级关系等其他重要属性对模型性能的影响,本文提出基于分层软注意力机制的个性化联邦学习算法p Fed LSA,针对模型的主体部分和头部分别引入分层软注意力机制(LAM)进行细粒度组件内层级聚合,为每个客户端学习个性化模型。具体地,p Fed LSA权衡了客户端样本数量与局部模型主体部分对全局模型主体部分的层级贡献,聚合得到对数据通用信息具有更强表征能力的主体部分,并充分利用相似客户端之间的协作对客户端模型头部进行分层加权联邦适应,从而为每个客户端生成个性化模型头部。此外,p Fed LSA通过在服务器端维护层级个性化模型头部字典的方式,高效地解决了新来客户端的冷启动问题。最后,本文通过与其他先进的联邦学习方法进行对比以及消融实验,验证了p Fed LSA的优越性与有效性。