前言
文章针对推荐系统提出了一种新的堆叠和重构图卷积网络(STAR-GCN)结构来学习节点的表征,提高推荐系统的效率,特别是在冷启动场景。STAR-GCN采用一堆GCN编码器/解码器与中间监督相结合,以提高最终预测性能。同图卷积矩阵分解模型用one-hot节点作为输入不同,STAR-GCN学习低维的user、item 隐表征作为输入来限制模型的空间复杂度。STAR-GCN可以通过重建屏蔽的输入节点表征来为新节点生成节点表征,这本质上解决了冷启动问题 。文章在为链接预测任务训练基于GCN的模型时发现标签泄漏问题,并提出了避免该问题的训练策略。 多个评级预测基准的经验结果表明,模型在五个真实数据集中的四个中获得了最先进的性能,并且在冷启动场景中预测评级方面取得了显着改进。
论文链接:https://arxiv.org/abs/1905.13129
github:https://github.com/Wenhui-Yu/LCFN
1. 背景
推荐系统中核心的数学问题就是矩阵分解,假设有 NNN 个user,MMM 个item,推荐算法的目的是根据这个矩阵已有的值去填充未知的值。
经典的解决方法是基于矩阵分解(MF),每一个已知的得分是通过用户和item的隐因子表征相乘得到的。近年来,深度学习的发展尤其是图卷积对这个问题带来了一些新的思路。GCN将卷积的定义从规则网格推广到不规则网格,像图结构。GCN通过一个局部共享参数算子来生成节点表示。一个图卷积算子通过转换或者聚合某个节点的局部领域节点的特征来生成该节点的表征。通过堆砌多个图卷积算子和非线性函数,我们构建了一个深度神经网络,可以抽取这个图远处的特征。因为局部邻域集可以看作卷积核的接收场,这类领域聚合方法称为图卷积。
Monti等人针对推荐系统首次提出了基于GCN的方法,在他们的方法里,GCN用于将user-user和item-item的两个图信息聚合,user和item的隐因子在每次聚合的时候更新,GCN和MF的目标函数通过组合用在了这个模型里。此后提出了图卷积矩阵完成模型(GC-MC),GC-MC模型直接将user和item的关系描述为一个二部图。两个多连接卷积层用于聚合user和item的特征。通过预测边的标签来估计得分。GC-MC模型取得了很不错的成绩。虽然很强大,但GC-MC模型有两个明显的限制
- 为了区分每一个节点,GC-MC模型使用one-hot向量作为节点输入,这使得对于大规模的图使用受到了限制;
- 模型不能预测训练过程中没有出现过的item和user,因为不能用one-hot表示没出现过的节点。这类任务就是我们熟知的冷启动。
本文提出了新的架构,堆积重构图卷积网络(STAR-GCN)来解决这些问题,不同于GC-MC,STAR-GCN作为一个端到端的模式直接学习user和item的低维表征,为了提升模型能力,另外也针对冷启动问题,STAR-GCN盖住了部分或者整个user和item的表征,在训练阶段通过一小块图的编码解码器来重构盖住的部分。这个想法灵感来源于NLP里的 masked language model,我们结合特定于任务的中间监督构建了一组编码器-解码器块,以提高最终性能。
在实施过程中,训练基于GCN的模型进行评级预测时会遇到标签泄漏问题,这会导致过拟合问题并严重降低最终性能。 为避免泄漏问题,我们提供了一个采样-丢弃训练策略,并通过经验证明了其有效性。
文章创新点:
1、我们为推荐器系统提出了一种新的体系结构,以便在转导和归纳环境中学习用户和项目的潜在因素
2、第一个在评分预测任务中实施基于GCN的模型时明确指出培训标签泄漏问题的人,并提出了一种避免该问题的训练策略,从而显着改善了性能
3、STAR-GCN模型在转换环境中的五个真实世界推荐数据集中有四个实现了最先进的性能,并且在归纳环境中明显优于其他模型
2. 模型任务
给模型主要聚焦于评分预测任务,与其他基于图方法的协同过滤模型不同,评分预测任务更侧重于连接预测的问题,也就是用户物品交互矩阵的预测。而基于图标是学习的协同过滤任务希望学习物品与用户的特征进行嵌入尽可能重构还原交互矩阵,两者的侧重点略有不同。
基于GCN的模型将推荐环境当做一个无向二部图,由user U\mathcal{U}U 和item V\mathcal{V}V 两部分组成。打分集合 $\mathcal{R} {1,2,…,R} $,每个打分都代表二部图里的一个连接,聚焦于两种类型的打分预测任务:直推式评分预测和归纳式评分预测,两者主要的区别在于直推式任务在训练时包括所有的测试样本,而归纳式则为训练集和测试集分离的情况。
在本文中,归纳学习用于解决冷启动问题,即在训练阶段将cold节点完全掩盖,不参与训练,在预测之前会访问其中一些边。(主要是不参与训练,传统方法不重新训练即无法解决此任务)如下图所示
转移打分预测
如上图a所示,是针对已经存在的 user 和 item 之间的
推断打分预测
对新来的user或者item预测,说白了就是冷启动
对比CDL和DropoutNet,STAR-GCN不仅利用节点的内容信息,而且结合了结构信息来学习新节点的表征。
3. 多评分图卷积信息聚合
先简单回顾一下GC-MC,GC-MC 利用一个多连接图卷积编码器来生成节点表征,每一个连接类型 rrr 赋值为一种特殊的转化。信息按如下方式从 item 传到 user :
其中,yuir\mathrm{y}_{u_i}^{r}yui?r? 是一个连接类型 rrr 的聚合结果,xvj∈Rdin\mathrm{x}_{v_j}\in\mathbb{R}^{d_{in}}xvj??∈Rdin? 是 item vjv_jvj? 的初始化向量,War\mathrm{W}_{a}^{r}War? 是对打分 rrr 的一个 da?dind_a * d_{in}da??din? 的权重矩阵,将 dind_{in}din? 维的向量转为 dad_ada? 维,cij=∣Nr(ui)∣∣Nr(vj)∣c_{ij}=\sqrt{|\mathcal{N}_{r}(u_i)||\mathcal{N}_{r}(v_j)|}cij?=∣Nr?(ui?)∣∣Nr?(vj?)∣? 是标准化常数,N(?)\mathcal{N}(\cdot)N(?) 是由边值 rrr 连接的邻域。
对于每个 user,会有多个不同的打分 rrr ,首先将打分都为 rrr 的聚合到一起,得到 yuir\mathrm{y}_{u_i}^{r}yui?r?,然后再将不同打分经过两次非线性变换得到 user 的表征 hui\mathrm{h}_{u_i}hui??
?
3.1 模型框架与损失函数
其中 x(0)x^{(0)}x(0) 是初始节点向量, h(l)h^{(l)}h(l) 是第 lll 层图编码器的输出, x^(l)\hat{x}^{(l)}x^(l) 代表第lll层图解码器的输出, Lt\mathcal{L}_tLt?代表由任务类型决定的损失函数 ,Lr\mathcal{L}_rLr?代表编码器解码器重构损失。
图2(a)为模型的通用框架,包含了多个(编码-解码)块,多个编码块可以堆叠(Stacked, 参数不共享)也可以重构(Reconstructed, 参数共享)。图2(b)和图2?是(a)的两种特例,(b)表示每个编码块可以包含多个GCN层,?表示可以不解码重构直接用于下游任务。
其中x(0)是初始节点向量。 h()是第-图编码器的输出,x-hat()是解码器的输出节点向量。 Lt是用于具体任务的损失函数,Lr是重建的损失函数。通用的损失函数形式为:
假设我们用一批样本边集合 Eb\mathcal{E}_bEb? 和两个盖住的节点集合 Um\mathcal{U}_mUm?, Vm\mathcal{V}_mVm?,则特定的loss 为针对于评分预测任务,具体的 Lt\mathcal{L}_tLt? 和 Lr\mathcal{L}_rLr? 为:
对于打分预测 loss ,ui\mathrm{u}_iui?, vj\mathrm{v}_jvj? 由图编码器输出的线性变换生成,ui=Wruhui\mathrm{u}_i=\mathrm{W}_{r}^{u}\mathrm{h}_{u_i}ui?=Wru?hui??,vj=Wrvhvj\mathrm{v}_j=\mathrm{W}_{r}^{v}\mathrm{h}_{v_j}vj?=Wrv?hvj??,其中,Wru,Wrv∈Rdr?do\mathrm{W}_{r}^{u},\mathrm{W}_{r}^{v}\in\mathbb{R}^{d_r*d_o}Wru?,Wrv?∈Rdr??do?。Lt\mathcal{L}_tLt? 即是预测评分的均方误差,Lr\mathcal{L}_rLr? 即是物品向量和用户向量的重构误差
在推断环节,一个 L 块的STAR-GCN 可以输出 L 个预测值,一般来说,我们选择最后一个块的结果作为最终预测结果。
实验评估指标采用均方误差 (RMSE)
3.2 模型输入
为了让网络扩展到大型图,本文用查表 lookup 将每个节点映射到一个低维的向量, Xe∈Rde?∣M+N∣\mathrm{X}_e\in \mathbb{R}^{d_e *|M+N|}Xe?∈Rde??∣M+N∣,Xe\mathrm{X}_eXe? 在网络中通过端到端训练得到。但是简单的替换one-hot类型向量还是没法解决冷启动问题,因为新节点的embedding不在训练数据里。我们采取了一种方法,即随机掩盖一定百分比的输入节点,然后重建新的节点的表征。在每一个batch训练中,会盖住20%的节点,然后重建这部分节点的表征,对于这部分盖住的节点,做以下操作:
- (1)、以概率 pzp_zpz? 将节点表征初始化为0
- (2)、以 1?pz1-p_z1?pz? 概率保持不变。
训练这个 masked 表征机制有两个优势。
- 第一,在训练过程中,它可以学习到没被观测到的节点,在冷启动场景,我们初始化新节点为0,通过多个GCN编码器/解码器块逐步完善估计的表征。例如,第一个块通过利用邻域数据(或节点属性,如果可用)来预测新节点的表征。 然后,将预测的表征内容馈送到第二个块,以预测评分和精确的表征内容。 评级和表征预测损失是共同优化的。 因此,STAR-GCN可以通过迭代优化嵌入来解决冷启动问题,并且与GC-MC根本不同。
- 其次,STAR-GCN导致转导环境的改善。 在训练阶段,部分节点嵌入被掩盖,并要求网络重构这些掩盖的嵌入,这要求网络有效地编码用户和项目之间的关系。 因此,重建损失充当提高基本评级预测任务的性能的多任务正则器。其次,STAR-GCN导致转导环境的改善。 在训练阶段,部分节点表征被掩盖,并要求网络重构这些掩盖的表征,这要求网络有效地编码 user 和 item 之间的关系。 因此,重建损失充当了多任务调整器,可提高主要评级预测任务的性能.。
3.3 图编码器和解码器
图编码器通过聚合不同的打分等级的邻域信息,将输入节点向量 x∈Rdin\mathrm{x}\in\mathbb{R}^{d_{in}}x∈Rdin? 转换为大小为 dhd_hdh? 的隐状态 h\mathrm{h}h,例如 h=Enc(x)\mathrm{h}=Enc(x)h=Enc(x),我们在GC-MC 中选择如方程(1)所示的编码器作为多连接GCN聚合器。解码器将结构编码节点表征 h\mathrm{h}h 转成一个 dind_{in}din?维的重构表征向量 x^\hat\mathrm{x}x^, x^=Dec(h)\hat\mathrm{x}=Dec(h)x^=Dec(h),用一个两层的神经网络作为解码器,如x^=W4α(W3h)\hat\mathrm{x}=\mathrm{W}_4\alpha(\mathrm{W_3}\mathrm{h})x^=W4?α(W3?h)其中输出维度都是 dind_{in}din?。STAR-GCN是带有一堆编码器解码器的通用型框架,任何类型的GCN,如Graph-SAGE,GAT都可以在STAR-GCN中作为编码器或解码器。因此STAR-GCN是一个通用的框架
4. 实验
?