使用概率密度函数 (pdf),我们可以使用最大似然估计等方法来估计未知参数。如果 pdf 不可用,则可以使用最小二乘法。pdf不可用情况的其他方法是最小均方。
然后还有其他称为启发式方法的方法,例如粒子群优化、遗传算法、蚁群优化。这些也适用于在不使用 pdf 的情况下查找未知参数。这是一篇很长的帖子,非常感谢您,我非常感谢您抽出时间阅读和理解我的担忧的耐心。我的问题是:
1)参数估计和优化有什么区别?
2)何时使用估计理论和优化是否有经验法则?
根据我的理解,许多研究文章和教科书交替使用这两个术语。例如,题为“参数估计与仿生元启发式优化:模拟内吞作用的动力学”的论文摘要如下:
我们解决了基于测量数据的常微分方程 (ODE) 的生物系统动力学模型中的参数估计任务,其中模型通常是非线性的并且具有许多参数,测量由于噪声而不完美,并且研究的系统通常只能部分观察到。一个有代表性的任务是从这些浓度的实验测量中估计内吞作用动力学模型中的参数,即内体成熟,反映在 Rab5 和 Rab7 域蛋白浓度之间的切断开关转换中。这里考虑的一般参数估计任务和具体实例都是具有挑战性的优化问题,需要使用先进的元启发式优化方法,例如进化或基于群体的方法。
然而,在信号处理中,优化很少与参数估计结合或教授。例如,在 Steven Kay 题为“统计信号处理基础,第一卷:估计理论”的书中,从未提到优化是另一种进行估计的方法。然而,梯度下降是一种优化算法,它使用函数的导数并等于零。如果这是进行优化的常用方法,则最大似然估计还使用对数似然函数找到关于未知参数的导数,这些导数等于零以获得估计。这带来了我的最后两个问题,它们是:
3) MLE 是一种优化或估计技术吗?
4)启发式方法,如粒子群等,没有找到导数来获得目标函数的最小值或最大值。那么,如果它们没有以通常的方式优化成本函数,即获取导数并将它们等同于零,那么为什么将它们称为优化方法呢?