非负约束是否会增加估计误差

数据挖掘 算法 无监督学习
2022-02-22 19:47:22

我一直在使用张量和矩阵非负约束算法。我从未见过具有与非约束算法(例如高阶 SVD HOSVD )相当的错误的非负约束算法(例如,非负塔克分解NTD)。出版物通常不会比较无约束算法与约束算法的估计误差,而是总是在相同类型的不同算法之间进行比较。

通过测试,我发现有噪声的约束算法的结果是107与不受约束的相比1015.

任何我可以开始的参考或任何解释都将不胜感激。

1个回答

您是在谈论训练错误还是测试错误?非消极约束使您的可能解决方案的搜索空间更小。这意味着当您添加非负约束时,训练误差将始终更高或相等。但较高的训练误差可能意味着您过度拟合。如果非负性假设对解决您的问题有意义,那么这个假设很可能会减少测试错误,因为您正在限制函数空间并减少过度拟合的机会。