有哪些机器学习方法可以应用于非紧凑输入域和输出范围?
神经网络显然不是其中之一,因为它们很好地近似于一个区间。
我手头有一个问题,我需要在整个实线中识别一个具有域的函数。好消息是我知道渐近行为,这是一个有限的点。
不幸的是,常见的 ML 方法在训练范围之外立即发散,并且不能指望具有任何渐近稳定性。多项式是我想到的一个想法,但它们也渐近发散。
有哪些机器学习方法可以应用于非紧凑输入域和输出范围?
神经网络显然不是其中之一,因为它们很好地近似于一个区间。
我手头有一个问题,我需要在整个实线中识别一个具有域的函数。好消息是我知道渐近行为,这是一个有限的点。
不幸的是,常见的 ML 方法在训练范围之外立即发散,并且不能指望具有任何渐近稳定性。多项式是我想到的一个想法,但它们也渐近发散。
请注意,有限域和范围的限制源于硬件的有限性质以及数字的有限表示。因此,更有希望的方法是重构域,而不是使用“无限”算法。
您可以将对数缩放应用于您的域和范围。这将使您摆脱开放边界,同时仍保持顺序和连续性,这是重要的数值机器学习算法。
该log函数是可用于转换的基本构建块。您可以对其进行缩放以适合您的范围,这将解决您的范围的积极部分。你可以对负数做同样的事情,如果这适合你,甚至可以使用不同的系数。