为什么在这两篇论文中,基于边际的排名损失被反转了?

数据挖掘 深度学习 损失函数 铰链损失
2022-02-16 11:05:34

对于知识图完成,使用基于边际的排名损失是很常见的

论文中:margin-based 排名损失定义为

min(h,l,t)S(h,l,t)S[γ+d(h,l,t)d(h,l,t)]+

这里d()是预测模型,(h,l,t)表示正训练实例,(h,l,t)表示对应于(h,l,t)的负训练实例。

但是,在 Andrew 的论文中,它定义了

min(h,l,t)S(h,l,t)S[γ+d(h,l,t)d(h,l,t)]+

似乎他们切换了d(h,l,t)d(h,l,t)术语。

我的问题是

切换d(h,l,t)d(h,l,t)是否重要?这真是奇怪的定义。谢谢

1个回答

本文中,d表示“差异性”,对于正样本应该最小化。

本文中,d(本文中的g)表示“相似性”,对于正样本应该最大化(或等效地g(T(i))应该最小化)