我有两个时间相关的耦合方程。其中一个的计算要求比另一个高几个数量级。我正在尝试使用机器学习来重现更昂贵的方程式的行为。
等式 1
input: c(t), a(t)
output a(t+dt)
等式2
input: a(t)
output: c(t+dt)
所以本质上我想重建方程 2 的响应。请记住,方程 2 中的内部变量保留了先前状态的“记忆”。所以响应取决于输入的历史。
关于从哪里开始或为这种类型的系统开发了哪些方法的任何建议?或者如果有更合适的地方发布这个?
编辑:更多细节,这是一个多尺度模拟
方程 1 是一个简单的有限差分方程
对于每个 x 的第二部分,我有一个时间相关的集合 U(t) 来传播到 U(t+dt)。这种传播取决于输入 a(x,t) 并产生 c(x,t+dt) 以反馈到第一个方程中。这部分的细节有点复杂/涉及,但要点是我想避免显式存储或传播 U(非常非常非常昂贵,例如需要 10,000+ 个 cpu 核心)
EDIT2:NARX 网络似乎几乎可以做我想做的事。但是,我有许多不同的“示例”,我希望网络可以从中学习。也许我能做到的唯一方法是将所有内容拼接成一个大(输入,输出)集合?
http://www.mathworks.com/help/nnet/ug/design-time-series-narx-feedback-neural-networks.html