矩阵分解中非负性的优势是什么?

机器算法验证 机器学习 推荐系统 矩阵分解 非负矩阵分解
2022-03-21 06:30:37

我想知道为什么机器学习领域中的矩阵分解技术几乎总是期望提供的矩阵是非负的。这种约束有什么好处?

背景:我想对包含正负隐式反馈的稀疏用户项矩阵使用矩阵分解算法。除了表示用户和项目之间没有发生交互的字段之外,是否还有其他可能设置带有负面指示的交互?

2个回答

看看Jester,它是一个众所周知的笑话数据集,它使用 -10.0 到 +10.0 范围内的连续评级。许多论文已将此数据集用于矩阵分解技术而没有不良影响。在数学或技术层面上没有这种仅限正面评级的约束。

但我们通常看到主要是正面评级矩阵的原因可能与网站/服务不希望他们的产品有负面评级有关:即使是一星似乎也比负面评级好,这就是不喜欢的东西讨厌相比某物。

它还可能与用户对平均值的看法有关:如果您使用负面和正面评级,某些产品可能平均有 0 颗星,这实际上意味着在该评级量表上是中性的。但是,如果您习惯了其他网站上使用的 5 星评级量表,则中性为 3 星,而 0 星表示“非常糟糕”。

上面已经提出了一些好的观点。我将添加三种非负约束改进可解释因子模型捕获的方法:

非负性鼓励对缺失信号的估算因为信号只能在一个方向上解释——加法——比在 SVD 中估算的丢失信号多得多,例如。如果模型中允许负值,则算法可能会“试图”减去真实数据点而不是添加缺失点。由于信号丢失或采样不完整,待分解矩阵中的数据通常不完整,因此插补很重要。

非负性强制稀疏虽然无约束分解几乎永远不会为零,但非负模型始终为零,其中给定因素绝对不会对信号产生影响。当我们想要发现不同的特征集或样本关系时,稀疏表示是可取的。

非消极性确保因素不会相互抵消例如,如果一个因素“过度纠正”信号,另一个因素我会尝试“反纠正”以平衡它。当因子为正或仅为零时,它们永远无法反校正,只能解释加性信号。通常,在条件良好的非负输入矩阵中,无约束的正交分解几乎是非负的。然而,强加非负性会强制执行合理的理论预期,并可以加速收敛。