在Yurii Nesterov 的 Introductory Lectures on Convex Optimization中,描述了最小化问题的分析复杂度的收敛速度和相应的上限:
迭代的误差由其中x_k是迭代k处的近似解,x ^*是真实解。二次率:r_{k+1} \leq c r_k^2。
相应的复杂度估计取决于所需精度的双对数:。为什么会这样?
在Yurii Nesterov 的 Introductory Lectures on Convex Optimization中,描述了最小化问题的分析复杂度的收敛速度和相应的上限:
迭代的误差由其中x_k是迭代k处的近似解,x ^*是真实解。二次率:r_{k+1} \leq c r_k^2。
相应的复杂度估计取决于所需精度的双对数:。为什么会这样?
与第 36 页上的前两个案例不同,案例 3“二次率”在上有一个界限,它取决于而不是。
我们有
展开这一点,您可以看到需要次迭代才能使降至小于。