我面临一些(RAM)内存问题来训练神经网络。
我有一个输入数组,由编码为 numpy.uint8 类型的灰度图像组成(因此可以覆盖 0-255 的整个范围)。将数据提供给网络时,我应该将值标准化为 0-1 范围,使它们现在成为浮点数(numpy.float64 或 32)。但是,这种转换使我的数据变大了 8 倍(或 4 倍),这是我的 RAM 内存无法处理的。
我有办法克服这个问题吗?
谢谢 !
我面临一些(RAM)内存问题来训练神经网络。
我有一个输入数组,由编码为 numpy.uint8 类型的灰度图像组成(因此可以覆盖 0-255 的整个范围)。将数据提供给网络时,我应该将值标准化为 0-1 范围,使它们现在成为浮点数(numpy.float64 或 32)。但是,这种转换使我的数据变大了 8 倍(或 4 倍),这是我的 RAM 内存无法处理的。
我有办法克服这个问题吗?
谢谢 !
标准化后,将数字转换为float16或bfloat16。这些是 Keras 中可用的最小的浮点数。