简短的回答是这取决于两件事:您使用的信息定义以及您是否真的使用该信息。
从信息论的角度来看,如果您的转换是可逆的,那么信息就在那里。发生这种情况是因为您可以应用逆变换来恢复原件。所以什么都没有丢失。这与各种无损压缩算法中发生的情况类似。
所以,信息是存在的,但被编码在另一个地方,特别是在转换函数中。因此,要了解您必须创建那些新功能来表达该信息的位置。并不是说当你有一个经典的学习者时,这个信息不会被学习者理解。以线性模型为例。之间没有区别F1=β0+β1X1+β2X2和F2=β2X2+β0+β1X1. 所以用简单的线性模型学习是不可能直接使用这个位置信息的。大多数学习者都会遇到这种情况。因此,即使在原始空间中,位置也是您头脑中的信息,而不是数据中的信息。
另一方面,如果您的神经网络是为图像量身定制的,并且希望接收值顺序比“是”更重要的图像块,那么您的神经网络可能会理解这些关系并使用它们。即便如此,也许该自定义神经网络有一种自定义方式来指定位置信息,因此您需要做的就是以特定于该自定义神经网络的格式对该信息进行编码。
另一方面,如果我们谈论的是标准的反向传播神经网络,则顺序无关紧要。该模型根本无法使用该位置。
作为结论,如果你有一个标准的通用学习算法,你唯一的机会就是在特征中以某种方式编码这个位置信息。例如(这是一个虚构的例子,我什至不知道这是否会说话)可以添加一组新的输入变量,一个用于 4 个相邻像素的每个正方形,并使用像素强度的平均值作为值。您没有足够明确地做到这一点,但是您创建了一组使用位置信息创建的新功能。