对于回归问题,我看到人们使用“确定系数”(又名 R 平方)来执行模型选择,例如,为正则化找到合适的惩罚系数。
然而,使用“均方误差”或“均方根误差”作为回归准确度的度量也很常见。
那么这两者之间的主要区别是什么?它们可以互换用于“正则化”和“回归”任务吗?每种在实践中的主要用途是什么,例如在机器学习、数据挖掘任务中?
对于回归问题,我看到人们使用“确定系数”(又名 R 平方)来执行模型选择,例如,为正则化找到合适的惩罚系数。
然而,使用“均方误差”或“均方根误差”作为回归准确度的度量也很常见。
那么这两者之间的主要区别是什么?它们可以互换用于“正则化”和“回归”任务吗?每种在实践中的主要用途是什么,例如在机器学习、数据挖掘任务中?
,其中是平方误差之和(残差或与回归线的偏差),均值的平方偏差之和。
,其中是样本大小,是模型中的参数数量(包括截距,如果有)。
是样本中预测或拟合程度的标准化度量。是总体中残差或不拟合的方差估计值。这两个度量明显相关,如调整后的估计值)所示:
。