ADMM 是如何可分离的?

计算科学 优化 约束优化 管理员
2021-12-01 09:30:27

我通过阅读 Boyd 的论文Distributed Optimization and Statistical Learning via the Alternating Direction Method of Multipliers 来了解 ADMM 。

该论文说 ADMM 是对乘法器方法的改进,因为后者需要最小化增广拉格朗日:

Lρ(x,y)=f(x)+yT(Axb)+(ρ/2)Axb22

我们不能并行最小化,因为添加的二次惩罚项使函数不可分离。

然而,论文说 ADMM 需要最小化增强的拉格朗日函数:

xk+1=argminxLρ(x,zk,yk)

zk+1=argminzLρ(xk+1,zk,yk)

其中增广拉格朗日定义为

Lρ(x,z,y)=f(x)+g(z)+yT(Ax+Bzc)+(ρ/2)Ax+Bzc22

论文说 ADMM 是一种改进,因为它具有与乘法器方法不同的可分解性。但是,ADMM 的增广拉格朗日不应该也是不可分离的,因为它最后还包含一个二次惩罚项是什么让它更容易分解?(ρ/2)Ax+Bzc22

0个回答
没有发现任何回复~