我想建模一个随时间变化的过程,. 我有一个数据集,对应于函数值的粗略采样在不同的时间点,. 我有一个导数的分析派生模型=在(已知)函数中有几个可调参数和. 我已经能够通过以下过程调整这些模型:
- 为函数选择一组参数和.
- 从我的数据集中最早的时间到我的数据集中的结束点执行正向欧拉方法,生成对应于上面的参数和.
- 用这个,以及我的测量数据点以生成模型错误。
- 使用上述建模错误返回 (1),迭代并优化表达式中的参数以尽量减少错误。
请注意,在上面我必须处理函数本身而不是导数,因为我的测量数据位于比需要计算的导数更粗糙的时间网格上。例如,我的导数在一个规模上有意义地变化,但我的数据集可能只有每个点到. 由于时间尺度上的这种差异,我无法从数据集中获取函数值本身并自己创建导数。
现在这个过程工作得很好,我能够实现一个很好的错误。但是,我想知道是否有更好的方法来模拟导数比这个分析模型。例如,神经网络或回归树能否做得更好?
我的问题是,我将如何以计算有效的方式做到这一点?让我们以神经网络为例。在使用标准包训练 NN 时,我习惯于使用输入及其相关输出。但问题是,如果我想对导数进行建模,我没有将导数作为输出来训练。我只知道函数值,并且只能通过前向欧拉积分计算出一个误差以最小化。当然,我可以像处理上面的参数一样处理 NN 参数,并对它们进行蛮力最小化,但是这样做显然会损失很多反向传播的效率(或者,如果我这样做是有决定的树,将失去回归树通常如何优化的逻辑)。
我有更好的方法吗?是否存在处理此问题的方法?如果有人能指出我富有成效的方向,将不胜感激。