论文解读|【GCN-RS】MCL: Mixed-Centric Loss for Collaborative Filtering (WWW‘22)

MCL: Mixed-Centric Loss for Collaborative Filtering (WWW’22) Pointwise和pairwise损失函数挖掘的信息太少了,只是采样样本,然后更新权重
为了从可用的偏好信息中挖掘更多的信号,考虑了难样本和全局信息。
先采集难样本
E E E是欧式距离。
难正样本是指正样本的距离比 距离最小的负样本的距离减阈值 还要大的样本。
E u j > min ? k ∈ N u E u k ? ? E_{u j}>\min _{k \in N_{u}} E_{u k}-\epsilon Euj?>k∈Nu?min?Euk???
难负样本是指负样本的距离比 距离最大的正样本的距离加阈值 还要小的样本。
E u k < max ? j ∈ P u E u j + ? E_{u k}<\max _{j \in P_{u}} E_{u j}+\epsilon Euk? 论文解读|【GCN-RS】MCL: Mixed-Centric Loss for Collaborative Filtering (WWW‘22)
文章图片

混合中心loss (CML)
采集得到的正负样本集合分别为: P u s , N u s \mathrm{P}_{\mathrm{u}}^{\mathrm{s}}, \mathrm{N}_{\mathrm{u}}^{\mathrm{s}} Pus?,Nus?。在训练过程中,给定一个batch B(包含m个用户),定义损失函数:
L M C L = 1 α log ? [ 1 + 1 m ∑ u ∈ B ∑ j ∈ P u s e α ( E u j + λ p ) ] + 1 β log ? [ 1 + 1 m ∑ u ∈ B ∑ k ∈ N u s e ? β ( E u k + λ n ) ] \begin{aligned} L_{M C L} &=\frac{1}{\alpha} \log \left[1+\frac{1}{m} \sum_{u \in B} \sum_{j \in P_{u}^{s}} e^{\alpha\left(E_{u j}+\lambda_{p}\right)}\right] \\ &+\frac{1}{\beta} \log \left[1+\frac{1}{m} \sum_{u \in B} \sum_{k \in N_{u}^{s}} e^{-\beta\left(E_{u k}+\lambda_{n}\right)}\right] \end{aligned} LMCL??=α1?log? ??1+m1?u∈B∑?j∈Pus?∑?eα(Euj?+λp?)? ??+β1?log? ??1+m1?u∈B∑?k∈Nus?∑?e?β(Euk?+λn?)? ???
解释为什么设计这个loss,这个loss对于一对正样本的影响:
? L ? E u j = w u j + = 1 m ? e α E u j e ? α λ p + 1 m ∑ u ′ ∈ B ∑ i ∈ P u ′ s e α E u ′ i = 1 m ? 1 w 1 + ( u , j ) + w 2 + ( u , j ) + w 3 + ( u , j ) \begin{aligned} \frac{\partial L}{\partial E_{u j}} =w_{u j}^{+} &=\frac{1}{m} \cdot \frac{e^{\alpha E_{u j}}}{e^{-\alpha \lambda_{p}+\frac{1}{m}} \sum_{u^{\prime} \in B} \sum_{i \in P_{u^{\prime}}^{s}} e^{\alpha E_{u^{\prime} i}}} \\ &=\frac{1}{m} \cdot \frac{1}{w_{1}^{+}(u, j)+w_{2}^{+}(u, j)+w_{3}^{+}(u, j)} \end{aligned} ?Euj??L?=wuj+??=m1??e?αλp?+m1?∑u′∈B?∑i∈Pu′s??eαEu′i?eαEuj??=m1??w1+?(u,j)+w2+?(u,j)+w3+?(u,j)1??
论文解读|【GCN-RS】MCL: Mixed-Centric Loss for Collaborative Filtering (WWW‘22)
文章图片

  • 用户-物品中心( w 1 + w_1^+ w1+?):仅和用户-物品的距离有关,越远 w 1 w_1 w1?越小,loss越大。
  • 同类型中心( w 2 + w_2^+ w2+?):计算当前正样本物品j j j与用户其他正难样本之间的关系。如果正样本物品j j j与用户的距离比其他难正样本的距离更大,则 w 1 w_1 w1?越小,loss越大。这类似于对物品embedding空间加一个约束,希望相同类型物品与用户的距离相似(在embedding空间,同一个用户交互过的物品,围绕在用户附近。)
  • 同批次中心( w 3 + w_3^+ w3+?):和同一个batch中的其他用户进行对比,提供了跨用户的额外一致性,希望每个用户和其正样本的距离都相同。
【论文解读|【GCN-RS】MCL: Mixed-Centric Loss for Collaborative Filtering (WWW‘22)】

    推荐阅读