我试图将提升理解为功能空间中的梯度下降(GD)。我遵循了有关该主题的经典论文中的论点,但充其量将我的理解描述为微不足道。打个比方,我做如下陈述。
常规 GD 旨在定位标量值函数的最佳点。函数式 GD 旨在找到函数(在整个定义域上)。从理论上讲,常规 GD 是基于微积分的过程的数值替代品,该过程将导数设置为零并求解结果方程(当然,实际问题并不容易通过这种方式解决)。函数空间中的等效直接过程是找到函数导数并求解得到的欧拉-拉格朗日方程。这就是我们解决等周问题、Brachistochrone 问题、最大熵问题等的方法。
为了进一步了解泛函 GD,我想使用泛函 GD 解决一个简单的变分问题。说,我想找到一条使两点之间的距离最小化的二维曲线。我知道如何使用欧拉拉格朗日来解决这个问题。我想通过看到一个随机选择的函数(服从约束)向直线发展,以数字方式重现这个解决方案。
是否有文本、教程、arXiv 文档、博客、视频或任何其他文档通过简单的示例对函数式 GD 进行了温和的介绍?我的搜索产生了一些学生抄写的讲义,但除了澄清论文中的符号之外,它们并没有多大帮助。
有人可以帮助为一个简单的问题设置一个功能性 GD 吗?我不是要求明确的代码,因为我很高兴自己编写代码。