为了在多元、连续的时间序列上训练隐马尔可夫模型 (HMM),是否最好以某种方式缩放数据?一些预处理步骤可能是:
- 归一化为 0 均值和单位方差
- 缩放到 [-1, 1] 区间
- 缩放到 [0, 1] 区间
对于神经网络,缩放背后的基本原理是获得一个更容易导航的“未压扁”的误差表面。
HMM 使用Baum-Welch 算法(它是期望最大化 (EM)算法的一种变体)来学习参数。
EM 对特征规模敏感吗?HMM 标准化是否有一些动机?
为了在多元、连续的时间序列上训练隐马尔可夫模型 (HMM),是否最好以某种方式缩放数据?一些预处理步骤可能是:
对于神经网络,缩放背后的基本原理是获得一个更容易导航的“未压扁”的误差表面。
HMM 使用Baum-Welch 算法(它是期望最大化 (EM)算法的一种变体)来学习参数。
EM 对特征规模敏感吗?HMM 标准化是否有一些动机?