据我所知,神经网络在输入层有固定数量的神经元。
如果在 NLP 等上下文中使用神经网络,则会将不同大小的句子或文本块馈送到网络中。变化的输入大小如何与网络输入层的固定大小相协调?换句话说,这样一个网络如何变得足够灵活,可以处理从一个单词到多页文本的任何地方的输入?
如果我对固定数量的输入神经元的假设是错误的,并且新的输入神经元被添加到网络中/从网络中删除以匹配输入大小,我看不出如何训练这些神经元。
我举了 NLP 的例子,但是很多问题本质上都具有不可预测的输入大小。我对处理这个问题的一般方法感兴趣。
对于图像,很明显您可以上/下采样到固定大小,但是对于文本,这似乎是一种不可能的方法,因为添加/删除文本会改变原始输入的含义。