许多领域(音频、视频、图像文本/NLP)的神经网络都可以取得很好的效果。特别是在 NLP 中使用一种名为 attention 的机制(transformer,BERT)取得了惊人的成果——无需手动预处理数据(文本文档)。
我有兴趣将神经网络应用于时间序列。然而,在这个领域,看起来大多数人通过以下方式应用手动特征工程:
- 转置事件矩阵以保存每次观察的列和每个事物(设备、患者、...)的行
- 手动生成滑动窗口并将片段提供给 RNN/LSMTM。
我忽略了什么吗?为什么我找不到使用注意力的人?这不是更方便(自动化)吗?