关键词:
深度学习
小样本学习
图像分类
图神经网络
扩散模型
摘要:
近年来,在大数据的支撑下,深度学习模型在计算机视觉和自然语言处理等领域有非常出色的表现。但是,在实际应用中可能会出现训练数据不足的情况,少量的训练样本无法描述整个数据集的分布情况,深度学习模型可能会过度拟合于这少量的数据,导致模型的性能不佳。因此,小样本学习被提出来用于解决这一问题。如何基于少量的训练样本,寻找更有效的方法来训练深度学习模型,使得模型能够泛化到新的样本,是小样本学习研究的目标。虽然现有的小样本学习方法对于解决小样本问题已经取得不错的效果,但是还存在一些问题。一方面,大多数基于数据增强的小样本学习方法都没有很好地保证生成样本的质量。另一方面,一些基于图神经网络解决小样本图像分类问题的方法,未能引入更多的先验信息,没有很好地发挥出图神经网络模型强大的推理能力。针对以上问题,本文提出了改进的方法。针对大多数基于数据增强的小样本学习方法都没有很好地保证生成样本的质量这一问题,本文提出了基于DEP-Net(Delta-Encoder Prototypical Network)的小样本图像分类方法。使用改进的自注意力机制计算类别的原型表示,再使用编码器去学习原型与类内样本之间可迁移的差异信息,解码器将提取到的差异信息迁移到新类,生成更多的样本。类内样本与原型的差异信息涵盖了更丰富的语义信息,在一定程度上保证了生成样本的多样性。通过设计相似损失和分类损失来保证生成样本的真实性、可判别性。本方法在一定程度上提升了生成样本的质量,为模型提供更全面的先验信息,缓解了模型训练容易过拟合、泛化能力差等问题。为了验证本方法的有效性与优越性,本文在mini Image Net、CUB、CIFAR-FS等三个基准数据集上进行了对比实验。实验结果表明,本文提出的方法能够有效地提升小样本图像分类的准确率。针对基于图神经网络解决小样本图像分类问题的方法未能引入更多的先验信息,没有很好地发挥出图神经网络强大的推理能力,本文提出基于扩散模型与图神经网络的小样本学习方法。由于扩散模型比变分自编码器等模型有更强大的生成能力,本文选取扩散模型来丰富训练集的信息。首先,将分类任务中的图像映射到隐空间后,输入到扩散模型,扩散模型根据带标签样本的监督信息去生成更多拟合真实分布的样本。然后,将扩充后的样本集输入到图神经网络中,样本作为图中的节点,样本间的关系作为图中的边,迭代地更新节点特征和边特征,最后,根据测试样本与带标签样本之间的边信息来预测该测试样本的类别。在基准数据集上的实验结果验证了本方法的有效性,对比以前的基于图神经网络小样本学习方法有了一定的提升。