今天继续记录的是关于imbalance class learning的paper,ICCV19的affinity loss:Paper
关于这篇文章只找到一个unofficial code:
Code
Contribution & Motivation
文章中介绍了一个混合的损失函数,它通过这一单一的损失函数同时进行分类和聚类。 该方法基于欧几里得空间中的"affinity measure",可以带来诸多好处:
- 可以直接对分类的boundary实施maximum margin 限制
- 一种易于操作的(tractable)方式来保证均匀的空间分布和等间距(equidistant) 聚类中心
- 灵活的(flexibility) 学习multiple class prototypes,以保证在特征空间中的多样性和可判别性。
大量实验表明,所提出的affinity loss在视觉分类和验证任务的多个不平衡数据集取得了SOTA的效果,所提出的loss可以很容易地作为一个可微块插入任何深度的体系结构中,并且对不同级别的数据不平衡和损坏的标签具有鲁棒性。
Max-margin Framework
这一部分,作者提出了一个hybrid multi-task formulation在imbalanced 数据集上进行学习,所提出的loss将分类和聚类结合到了一个目标函数中,并且最小化类内距离同时最大化类间距离。