卷积神经网络 (CNN) 假设数据大小相同。通常序列数据是可变长度的(例如,自然语言)。因此,序列数据被填充以确保所有数据的长度都相同。
预填充是在较短序列的开头添加零。后填充是在较短序列的结尾添加零。
选择 prepadding 或 postpadding 的经验原因是什么?
卷积神经网络 (CNN) 假设数据大小相同。通常序列数据是可变长度的(例如,自然语言)。因此,序列数据被填充以确保所有数据的长度都相同。
预填充是在较短序列的开头添加零。后填充是在较短序列的结尾添加零。
选择 prepadding 或 postpadding 的经验原因是什么?
我不认为这有什么不同。只要(1)您的序列足够长以处理合理数量的句子/段落/任何内容,并且(2)您在训练周期和预测周期之间填充的方式保持一致,那么您使用哪个填充方向应该是一个有争议的问题。