作为这个问题的后续,套索(和坐标下降算法)的 scikit-learn 实现如何tol
在实践中使用该参数?
更准确地说,在文档中,我们可以看到:
tol:浮动,可选
优化的容差:如果更新小于 tol,则优化代码检查对偶间隙的最优性并继续直到它小于 tol。
此外,当模型不收敛时,我们可以得到:
ConvergenceWarning: Objective did not converge. You might want to increase the number of iterations. Duality gap: 8.058438499079784, tolerance: 5.712111291830755 positive)
所以:
- 在 Lasso (/ElasticNet) 的情况下如何定义对偶间隙?
- 为什么上面示例中显示的公差是在模型
5.712111291830755
中设置为0.0001
(默认值)的? - 在实践中,这
the optimization code checks the dual gap for optimality and continues until it is smaller than tol.
意味着什么?