当前位置: 代码迷 >> 综合 >> 读文章笔记(十一):对比学习(Contrastive Learning)
  详细解决方案

读文章笔记(十一):对比学习(Contrastive Learning)

热度:34   发布时间:2023-11-17 07:47:09.0

读文章笔记(十一):对比学习(Contrastive Learning)

  • 对比学习

  • 来源于:对比学习(Contrastive Learning):研究进展精要

对比学习

对比学习属于无监督或者自监督学习,但是目前多个模型的效果已超过了有监督模型。

目前研究大多数都是:充分使用越来越大量的无标注数据,使用越来越复杂的模型,采用自监督预训练模式,来从中吸取图像本身的先验知识分布,在下游任务中通过Fine-tuning,来把预训练过程习得的知识,迁移给并提升下游任务的效果。

对比学习不依赖标注数据,要从无标注图像中自己学习知识。图像领域里的自监督可以分为两种类型:生成式自监督学习,判别式自监督学习。VAE和GAN是生成式自监督学习的两类典型方法,即它要求模型重建图像或者图像的一部分,这类型的任务难度相对比较高,要求像素级的重构,中间的图像编码必须包含很多细节信息。对比学习则是典型的判别式自监督学习,相对生成式自监督学习,对比学习的任务难度要低一些。

目前,对比学习貌似处于“无明确定义、有指导原则”的状态,它的指导原则是:通过自动构造相似实例和不相似实例,要求习得一个表示学习模型,通过这个模型,使得相似的实例在投影空间中比较接近,而不相似的实例在投影空间中距离比较远。而如何构造相似实例,以及不相似实例,如何构造能够遵循上述指导原则的表示学习模型结构,以及如何防止模型坍塌(Model Collapse),这几个点是其中的关键。

目前出现的对比学习方法已有很多,如果从防止模型坍塌的不同方法角度,我们可大致把现有方法划分为:基于负例的对比学习方法、基于对比聚类的方法、基于不对称网络结构的方法,以及基于冗余消除损失函数的方法。

  相关解决方案