关键词:
弱监督学习
噪声标签学习
监督对比学习
原型对比学习
摘要:
深度神经网络在人工智能的多个领域以及其中的各种下游任务中取得了重大成功,它将图像或文本编码为密集的特征表示,并利用大量准确的标记进行监督训练。这些海量的精确标注数据成为深度神经网络成功的主要原因,然而数据的精确标注需要耗费大量人力物力,所以需要得到大规模易于收集的廉价数据实例,用来进行监督训练。然而这些实例没有经过专家的注释,不能保证正确性,因此可能包含许多错误标记的实例,这些错误的标记被称为噪声标签,其存在会降低模型的训练准确性。如何利用这些噪声标签来进行监督训练的学习,并避免噪声标签对网络模型的训练带来干扰,这样的学习过程被称为噪声标签学习。
一些成熟的方法总是使用交叉熵损失进行监督预测,但这样会使DNNs(Deep Neural Networks)没有考虑学习隐藏空间中的判别特征表示,许多方法总是丢弃被认为带有噪声标签的数据,导致判别信息的缺失,因此他们不能在高噪声比例的噪声数据集上收敛。虽然采用对比学习的一些方法能够从隐藏空间进行学习,但同样对正负样本对进行了筛选,部分数据特征无法被模型完全学习,导致结果是次优的。为了在噪声标签存在的情况下学习稳健的特征表示,已有的监督对比学习方法取得了一定的成果,但也存在一些问题:第一,不能充分利用样本中的有效信息;第二,在监督对比学习的方法下训练后期容易受到噪声的影响,导致边界困难数据的分类产生错误。
针对以上两个问题本文提出了一种新的训练算法,一种带校正标签的监督对比学习(Supervised Contrastive Learning with Corrected Labels,SCL2)来消除噪声标签的负面影响,模型算法包括两部分:第一,利用网络前期倾向学习正确样本的特性,对训练样本的标签进行校正,确保模型收敛和软标签足够准确,使监督对比学习在隐藏空间中能够有效的学习;第二,生成并维护了类原型,使原型对比学习在类层面保证全局判别,保证准确的原型特征被网络模型学习,提高模型在类间的分类能力,在训练后期使类边界数据准确分类,进一步提高模型的泛化性。本文的具体工作如下:
1.构建了一种带校正标签的监督对比学习SCL2算法模型,模型由两部分组成:
(1)监督对比学习的实施需要准确的标签,为确保这一学习过程不受噪声标签的影响,能够对所有的训练数据进行学习,使模型能够在高噪比的情况下也能保证分类效果,通过对每个训练样本的给定标签和历史预测标签进行加权,改善损坏的监督信息,得到准确的软标签作为监督信息,使神经网络提取到的表征能够将局部判别保持在一个小批量数据中进行计算,从而保证模型能够从全部训练数据中提取判别信息,避免丢弃数据带来的信息损失,同时扩展的正样本对数量也能有效促进监督对比学习,从而能够达到对噪声标签的抵抗能力,达到预期的分类目标。
(2)为了确保原型特征的准确性能被网络模型充分利用,使提取到的特征判别表示能被完全学习利用,以保证全局判别,提高网络的泛化性能。本方法为每个类别维护一个生成的原型特征表示,每一种特征表示都隐含了每个类特有的特征判别信息,并且引入了动量更新的方式来维护原型,保证了原型特征的准确性。在训练的中后期,当模型能够提供准确标签的情况下,通过使得每个训练样本与其标签对应的原型更加接近,同时与其他标签对应的原型相距较远,来进一步提升边界数据的分类准确性。
在训练前中期,为了保证模型的正常收敛和拟合,只使用模型第一部分进行训练,模型可以学习到全部训练数据的判别信息,同时校正标签的准确性保证了对比学习在隐藏空间中的学习能力;等训练中后期,再加入原型对比学习,当模型训练困难数据时保证监督对比学习不受噪声标签的影响,使模型的鲁棒性和泛化性得到进一步提升。
2.实验验证:为了验证本文的SCL2方法相对于其他方法的有效性,在实验部分本文与Forward、GCE、Co-teaching、SECL、CLC等已有的经典解决噪声标签学习问题的方法进行比较,在CIFAR-10、CIFAR-100模拟真实世界噪声标签数据集上在两种模拟噪声类型以20%,40%,60%,80%噪声比例的设定下进行了实验,以及在Clothing1M、ANIMAL-10N真实世界数据集上进行了实验并对实验结果进行了分析,实验结果表明SCL2方法在众多基准数据集上表现优异,展示了其在各种标准化评估场景中的有效性。同时,本文还进行了消融实验和一系列参数实验,验证了SCL2方法的每一模块都是有价值的,不可或缺的。