当前位置: 代码迷 >> 综合 >> 2019 ICASSP TRANSFERABLE POSITIVE/NEGATIVE SER VIA CLASS-WISE ADVERSARIAL DOMAIN ADAPTATION
  详细解决方案

2019 ICASSP TRANSFERABLE POSITIVE/NEGATIVE SER VIA CLASS-WISE ADVERSARIAL DOMAIN ADAPTATION

热度:52   发布时间:2023-12-13 11:45:06.0

解决监督学习DA问题,和unsupervised 相比,只需要很少的labeled target 数据。是从2018年icassp
Towards Conditional Adversarial Training for Predicting Emotions from Speech过来的。相比而言,2018 写得更好,文章中蕴含了很多细节处理,毕竟挂着Bj?rn Schuller舒哥的名字。Introduction中提到文献[6] 不能解决intra-class match的问题。 [6]是 2017 年小样本学习的文章,后面会写读后心得。
(FADA) [6] emerges as a promising SDA approach. The FADA works by aligning distributions across
domains via adversarial learning in a discriminative manner. This strategy, however, may encounter a difficulty caused by very high intra-class variability in each corpus considering that the source and target corpora can differ。。。

现在的da都逐渐转向对齐条件分布P(x|y) 或者P(y|x), 因为向DANN一类的算法只是一味地对齐Source和Target的分布,不足以解决这种跨域的high variance问题,需要在label信息的限制或者约束下 更加强烈地对齐。

方法

paper只进行了二分类:积极or消极。
简单说在传统的cross-entropy之外引入了新的类似的loss,进行的是什么呢。
举例说两个库各有两个类,这样一共是四类d1, d2, d3, d4。 其中d1, d3同属一类,只是在不同库里,同理d2, d4。理解起来就是同类别不同数据库的data进行交叉对齐。
在这里插入图片描述
然后作者说这是一个two-stage的work,第一个stage就是传统的分类,第二个stage是新引入的Loss。
首先,我认为,这个work比较局限,如果是6类情感Loss2 就包含12个子部分了。个人觉得不是很普适性的condition对齐方法。推荐阅读龙明盛老师的CDAN。

  相关解决方案