我们知道损失(误差)最小化起源于 18 世纪早期的高斯和拉格朗日。
最近,弗里德曼* 赞扬了其在预测建模中使用的优点:
“回归分析的目的是使用数据构建一个函数 f(x),该函数可以作为 f(x) 在感兴趣的域 D 上的合理近似值。合理性的概念取决于使用近似值的目的。然而,在几乎所有应用中,准确性都很重要……如果回归分析的唯一目的是获得预测响应 y 未来值的规则,给定协变量 (x1,...,xn) 的值,那么准确性是模型唯一重要的优点……”
但是准确性是模型唯一重要的优点吗?
我的问题涉及损失最小化是否是评估回归函数的唯一方法,无论是 OLS、ML、梯度下降、二次或最小绝对偏差等。
显然,可以在后验损失之外评估多个指标,即在模型建立之后。但是是否有多元函数可以先验或在优化阶段评估多个指标?
例如,假设有人想使用一种回归函数,该函数不仅基于损失最小化而且还最大化非线性相关性或香农熵来优化拟合?
这些功能是否可用和/或这些问题是否已经研究和发表?
有什么软件可以实现这些方法?
*弗里德曼,JH,多元自适应回归样条,统计年鉴,1991 年,第一卷。19,没有。1(3 月),第 1-67 页。