FOBOS: Efficient Learning using Forward-Backward Splitting
这篇文章主要是对FOBOS这个方法的文献做一下简单的翻译,加深自己的理解,如有错误欢迎指出文章目录AbstractIntroductionForward-Looking Subgradients and Forward-Backward SplittingConvergence and Regret Analysis of FOBOSDerived AlgorithmsL1正则下的FOBOS...
这篇文章主要是对FOBOS这个方法的文献做一下简单的翻译,加深自己的理解,如有错误欢迎指出
文章目录
这篇文章是John Duchi(加利福尼亚大学伯克利分校)和Yoram Singer(谷歌)在09年发表的一篇关于凸优化的文章。
Abstract
在摘要里,作者就指明文章描述了一种最小化带正则化的经验损失的新框架,在新框架下,每次迭代分为两个阶段进行,首先是普通的梯度下降,之后构造了一个新的瞬时优化问题(instantaneous optimization problem)【这里我不太明白这个instantaneous指代的是什么意思】,这个新问题可以在保持结果与第一阶段没有太大差异的情况下,trades off minimization of a regularization term 【不知道该怎么翻译,平衡正则项的最小化?】。
Introduction
文章使用
∣
∣
x
∣
∣
p
||x||_p
∣∣x∣∣p 表示矢量
x
x
x的p范数,而用
∣
∣
x
∣
∣
||x||
∣∣x∣∣表示二范数
∣
∣
x
∣
∣
2
||x||_2
∣∣x∣∣2的简写。文章要解决的问题的一般形式如下:
f
(
w
)
+
r
(
w
)
(1)
f(\boldsymbol{w})+r(\boldsymbol{w}) \tag{1}
f(w)+r(w)(1) 其中两个函数
f
f
f 和
r
r
r 都是有下界的凸函数(convex bounded below functions),一般的,前者是经验损失而后者是正则项,这在机器学习相关的问题中经常可以见到。
有许多方法用来解决一般的凸函数的最小化问题,较为常见的就是次梯度方法,用
∂
f
(
w
)
\partial f(\boldsymbol{w})
∂f(w) 表示函数
f
f
f 在
w
w
w 出的次微分,即
∂
f
(
w
)
=
{
g
∣
∀
v
:
f
(
v
)
≥
f
(
w
)
+
⟨
g
,
v
−
w
⟩
}
\partial f(\boldsymbol{w})=\{\boldsymbol{g} | \forall \boldsymbol{v}: f(\boldsymbol{v}) \geq f(\boldsymbol{w})+\langle\boldsymbol{g}, \boldsymbol{v}-\boldsymbol{w}\rangle\}
∂f(w)={g∣∀v:f(v)≥f(w)+⟨g,v−w⟩}次梯度方法的解决方法是根据更新规则迭代更新参数向量
w
w
w :
w
t
+
1
=
w
t
−
η
t
g
t
f
\boldsymbol{w}_{t+1}=\boldsymbol{w}_{t}-\eta_{t} \boldsymbol{g}_{t}^{f}
wt+1=wt−ηtgtf,其中
η
\eta
η 是step size,而
g
t
f
{g}_{t}^{f}
gtf 是次梯度集合中的任何一个。另一种方法是梯度投影:
w
t
+
1
=
Π
Ω
(
w
t
−
η
t
g
t
f
)
=
argmin
w
∈
Ω
{
∥
w
−
(
w
t
−
η
t
g
t
f
)
∥
2
2
}
\boldsymbol{w}_{t+1}=\Pi_{\Omega}\left(\boldsymbol{w}_{t}-\eta_{t} \boldsymbol{g}_{t}^{f}\right)=\underset{\boldsymbol{w} \in \Omega}{\operatorname{argmin}}\left\{\left\|\boldsymbol{w}-\left(\boldsymbol{w}_{t}-\eta_{t} \boldsymbol{g}_{t}^{f}\right)\right\|_{2}^{2}\right\}
wt+1=ΠΩ(wt−ηtgtf)=w∈Ωargmin{∥∥∥w−(wt−ηtgtf)∥∥∥22}其中
Π
Ω
(
w
)
\Pi_{\Omega}(\boldsymbol{w})
ΠΩ(w) 表示
w
w
w 在集合
Ω
\Omega
Ω 上的欧几里得投影。使用次梯度方法解决公式(1)形式如下:
w
t
+
1
=
w
t
−
η
t
g
t
f
−
η
t
g
t
r
,
where
g
t
r
∈
∂
r
(
w
t
)
\boldsymbol{w}_{t+1}=\boldsymbol{w}_{t}-\eta_{t} \boldsymbol{g}_{t}^{f}-\eta_{t} \boldsymbol{g}_{t}^{r}, \text { where } \boldsymbol{g}_{t}^{r} \in \partial r\left(\boldsymbol{w}_{t}\right)
wt+1=wt−ηtgtf−ηtgtr, where gtr∈∂r(wt)次梯度法中的一个常见问题是,如果
r
r
r 或
f
f
f 是不可微的,则次梯度法的迭代很少会落在不可微点处。然而有时候函数的最小值恰好就在这些不可微处,例如
y
=
∣
x
∣
y=|x|
y=∣x∣。
文章指出有很多方法与最小化公式(1)相关,尤其是当
r
r
r 是 稀疏提升正则项(sparsity-promoting regularizer) 时。作者称他们是基于一个叫做forward-backward splitting的方法进行的优化,然后是一堆综述,这里就不介绍了。
Forward-Looking Subgradients and Forward-Backward Splitting
作者称他们最初用FOLOS作为“FOrward LOoking Subgradient”的缩写,考虑到他们的算法是对已有的凸优化方法的升华,特别是前向后向分裂方法(Forward-Backward Splitting),为了不让早期的读者感到困惑,他们尽量保持原名不变,改用首字母缩写Fobos而不是Fobas。FOBOS算法的初衷是为了能够将 w t w_t wt 迭代至函数 r r r 的不可微的点,通过采取与次梯度步骤交错的分析最小化步骤(analytical minimization steps)来缓解 ℓ 1 \ell_{1} ℓ1 -regularization 等情况下的不可微问题。非正式的说,FOBOS类似于次梯度投影,只不过是用一个瞬时最小化问题代替或增强了投影步骤,这样可能得到闭合形式的解。FOBOS的迭代公式如下: w t + 1 2 = w t − η t g t f w t + 1 = argmin w { 1 2 ∥ w − w t + 1 2 ∥ 2 + η t + 1 2 r ( w ) } (2 ,3) \begin{aligned} \boldsymbol{w}_{t+\frac{1}{2}} &=\boldsymbol{w}_{t}-\eta_{t} \boldsymbol{g}_{t}^{f} \\ \boldsymbol{w}_{t+1} &=\underset{\boldsymbol{w}}{\operatorname{argmin}}\left\{\frac{1}{2}\left\|\boldsymbol{w}-\boldsymbol{w}_{t+\frac{1}{2}}\right\|^{2}+\eta_{t+\frac{1}{2}} r(\boldsymbol{w})\right\} \tag{2 ,3}\end{aligned} wt+21wt+1=wt−ηtgtf=wargmin{21∥∥∥w−wt+21∥∥∥2+ηt+21r(w)}(2 ,3)在第二步,文章找到了一个介于两个目标之间的向量:
- stay close to the interim vector w t + 1 2 \boldsymbol{w}_{t+\frac{1}{2}} wt+21,就是与第一步不要差的太远。
- attain a low complexity value as expressed by r r r,由r表示的低复杂度【难道说易于计算?】的值
方程(3)的一个重要性质是能够得到最优解的必要条件,同时也是命名为FOBOS的重要原因,即: 0 ∈ ∂ { 1 2 ∥ w − w t + 1 2 ∥ 2 + η t + 1 2 r ( w ) } ∣ w = w t + 1 \left.\mathbf{0} \in \partial\left\{\frac{1}{2}\left\|\boldsymbol{w}-\boldsymbol{w}_{t+\frac{1}{2}}\right\|^{2}+\eta_{t+\frac{1}{2}} r(\boldsymbol{w})\right\}\right|_{\boldsymbol{w}=\boldsymbol{w}_{t+1}} 0∈∂{21∥∥∥w−wt+21∥∥∥2+ηt+21r(w)}∣∣∣∣w=wt+1带入 w t + 1 2 \boldsymbol{w}_{t+\frac{1}{2}} wt+21 ,上式相当于 0 ∈ w t + 1 − w t + η t g t f + η t + 1 2 ∂ r ( w t + 1 ) \mathbf{0} \in \boldsymbol{w}_{t+1}-\boldsymbol{w}_{t}+\eta_{t} \boldsymbol{g}_{t}^{f}+\eta_{t+\frac{1}{2}} \partial r\left(\boldsymbol{w}_{t+1}\right) 0∈wt+1−wt+ηtgtf+ηt+21∂r(wt+1)。这个性质意味着只要按照上面的迭代公式,就可以保证得到一个向量 g t + 1 r ∈ ∂ r ( w t + 1 ) \boldsymbol{g}_{t+1}^{r} \in \partial r\left(\boldsymbol{w}_{t+1}\right) gt+1r∈∂r(wt+1) 能够使得 0 = w t + 1 − w t + η t g t f + η t + 1 2 g t + 1 r \mathbf{0}=\boldsymbol{w}_{t+1}-\boldsymbol{w}_{t}+\eta_{t} \boldsymbol{g}_{t}^{f}+\eta_{t+\frac{1}{2}} \boldsymbol{g}_{t+1}^{r} 0=wt+1−wt+ηtgtf+ηt+21gt+1r【因为0属于这个集合,选择那个就是0的就可以了】可以这么理解更新规则:新的权重矢量 w t + 1 w_{t+1} wt+1 是先前的权重矢量 w t w_t wt 、函数 f f f 在 w t w_t wt 处的次梯度和函数 r r r 在尚未确定的 w t + 1 w_{t+1} wt+1 处的次梯度的线性组合。简而言之,可以得到: w t + 1 = w t − η t g t f − η t + 1 2 g t + 1 r (4) \boldsymbol{w}_{t+1}=\boldsymbol{w}_{t}-\eta_{t} \boldsymbol{g}_{t}^{f}-\eta_{t+\frac{1}{2}} \boldsymbol{g}_{t+1}^{r} \tag{4} wt+1=wt−ηtgtf−ηt+21gt+1r(4)使用上式解决方程(3)有两个优点:
- 从算法层面看,它可以在几乎不增加计算成本的情况下实现稀疏解方案。
- forward-looking gradient允许方法建立在现有分析的基础之上,且能够表示所得到的框架具有许多现有的基于梯度的在线凸优化算法的形式收敛性。
引用知乎看到的一篇博客
其中Forward-Looking Subgradients指的正是 x ( t ) − η ∇ l ( x ( t ) ) x^{(t)}-\eta \nabla l\left(x^{(t)}\right) x(t)−η∇l(x(t))这⼀步仅基于损失函数的梯度(或次梯度)来更新参数,⽽Forward-Backward Splitting指的就是根据上⼀步的中间解的⼤⼩来做“裁剪”。
Convergence and Regret Analysis of FOBOS
regret analysis可以参考知乎上这个说法,我觉得说的挺好滴。通过设计
η
t
+
1
2
\eta_{t+\frac{1}{2}}
ηt+21,可以得到不同的收敛速度,例如可以令
η
t
+
1
2
\eta_{t+\frac{1}{2}}
ηt+21为
η
t
\eta_{t}
ηt或者
η
t
+
1
\eta_{t+1}
ηt+1,这取决于是做在线还是批量优化。接下来用
w
∗
\boldsymbol{w}^{*}
w∗表示
f
(
w
)
+
r
(
w
)
f(\boldsymbol{w})+r(\boldsymbol{w})
f(w)+r(w)最小时的值。第一个界限是依赖于假设
∥
w
⋆
∥
≤
D
\left\|\boldsymbol{w}^{\star}\right\| \leq D
∥w⋆∥≤D,尽管没有之后的界限的那么紧凑。
定义
∥
∂
f
(
w
)
∥
≜
sup
g
∈
∂
f
(
w
)
∥
g
∥
\|\partial f(\boldsymbol{w})\| \triangleq \sup _{\boldsymbol{g} \in \partial f(\boldsymbol{w})}\|\boldsymbol{g}\|
∥∂f(w)∥≜supg∈∂f(w)∥g∥,首先在相当普遍的假设下【引用了两篇文章J. Langford, L. Li, and T. Zhang. Sparse online learning via truncated gradient. In Advances in Neural Information Processing Systems 22, 2008.
和S. Shalev-Shwartz and A. Tewari. Stochastic methods for ℓ1-regularized loss minimization. In Proceedings of the 26th International Conference on Machine Learning, 2009.
】导出收敛结果,假设次梯度有界限:
∥
∂
f
(
w
)
∥
2
≤
A
f
(
w
)
+
G
2
,
∥
∂
r
(
w
)
∥
2
≤
A
r
(
w
)
+
G
2
(5)
\|\partial f(\boldsymbol{w})\|^{2} \leq A f(\boldsymbol{w})+G^{2}, \quad\|\partial r(\boldsymbol{w})\|^{2} \leq A r(\boldsymbol{w})+G^{2} \tag{5}
∥∂f(w)∥2≤Af(w)+G2,∥∂r(w)∥2≤Ar(w)+G2(5)例如,任何Lipschitz损失(如Logistic或铰链/SVM)都满足上述条件,其中A=0,G等于Lipschitz常数;最小二乘满足G=0,A=4。
对于函数 y=f(x) 在定义域为D上,如果存在 L ∈R ,且L>0,对任意 x1,x2 ∈D,有:
|f(x1)-f(x2)|≤ L|x1-x2|;则称 L 为 f(x) 在D上的Lipschitz常数。从这里可以看出,Lipschitz常数并不是固定不变的,而是依据具体的函数而定。
原文链接:https://blog.csdn.net/Chaolei3/article/details/81202544
接下来文章给出了第一个理论:
Theorem 1. 假如下面的条件成立:
- 来自 ∂ f \partial \boldsymbol{f} ∂f 的任何次梯度的范数和来自 ∂ r \partial \boldsymbol{r} ∂r 的任何次梯度的范数都是有界的,如方程(5)一样。
- w ∗ \boldsymbol{w}^{*} w∗的范数小于等于 D D D
- r ( 0 ) = 0 \boldsymbol{r}(0) = 0 r(0)=0
- 1 2 η t ≤ η t + 1 ≤ η t \frac{1}{2} \eta_{t} \leq \eta_{t+1} \leq \eta_{t} 21ηt≤ηt+1≤ηt
那么对于常数
c
≤
4
c \leq 4
c≤4,
w
1
=
0
w_1 = 0
w1=0 和
η
t
+
1
2
=
η
t
+
1
\eta_{t+\frac{1}{2}}=\eta_{t+1}
ηt+21=ηt+1, 有:
∑
t
=
1
T
[
η
t
(
(
1
−
c
A
η
t
)
f
(
w
t
)
−
f
(
w
⋆
)
)
+
η
t
(
(
1
−
c
A
η
t
)
r
(
w
t
)
−
r
(
w
⋆
)
)
]
≤
D
2
+
7
G
2
∑
t
=
1
T
η
t
2
\sum_{t=1}^{T}\left[\eta_{t}\left(\left(1-c A \eta_{t}\right) f\left(\boldsymbol{w}_{t}\right)-f\left(\boldsymbol{w}^{\star}\right)\right)+\eta_{t}\left(\left(1-c A \eta_{t}\right) r\left(\boldsymbol{w}_{t}\right)-r\left(\boldsymbol{w}^{\star}\right)\right)\right] \leq D^{2}+7 G^{2} \sum_{t=1}^{T} \eta_{t}^{2}
t=1∑T[ηt((1−cAηt)f(wt)−f(w⋆))+ηt((1−cAηt)r(wt)−r(w⋆))]≤D2+7G2t=1∑Tηt2该理论在固定步进率情况下有一个推论。
Corollary 2 (Fixed step rate). 假如理论1的条件成立,在预先设定好迭代次数T后运行FOBOS,同时令
η
t
=
D
7
T
G
\eta_{t}=\frac{D}{\sqrt{7 T} G}
ηt=7TGD 且
(
1
−
c
A
D
7
T
G
)
>
0
\left(1-c A \frac{D}{\sqrt{7 T G}}\right)>0
(1−cA7TGD)>0 那么则有:
min
t
∈
{
1
,
…
,
T
}
f
(
w
t
)
≤
1
T
∑
t
=
1
T
f
(
w
t
)
+
r
(
w
t
)
≤
3
D
G
T
(
1
−
c
A
D
G
7
T
)
+
f
(
w
⋆
)
+
r
(
w
⋆
)
1
−
c
A
D
G
7
T
\min _{t \in\{1, \ldots, T\}} f\left(\boldsymbol{w}_{t}\right) \leq \frac{1}{T} \sum_{t=1}^{T} f\left(\boldsymbol{w}_{t}\right)+r\left(\boldsymbol{w}_{t}\right) \leq \frac{3 D G}{\sqrt{T}\left(1-\frac{c A D}{G \sqrt{7 T}}\right)}+\frac{f\left(\boldsymbol{w}^{\star}\right)+r\left(\boldsymbol{w}^{\star}\right)}{1-\frac{c A D}{G \sqrt{7 T}}}
t∈{1,…,T}minf(wt)≤T1t=1∑Tf(wt)+r(wt)≤T(1−G7TcAD)3DG+1−G7TcADf(w⋆)+r(w⋆)上面的形式是标准的次梯度优化,而优化的终结点并非是最后一个向量参数
w
T
w_T
wT,因为次梯度的优化是没有方向的。
接下来是FOBOS的regret bounds,其公式呢就是类似于前面链接里的一样,是一些列预测的向量与最优向量的差异和:
R
f
+
r
(
T
)
=
∑
t
=
1
T
[
f
t
(
w
t
)
+
r
(
w
t
)
−
(
f
t
(
w
⋆
)
+
r
(
w
⋆
)
)
]
R_{f+r}(T)=\sum_{t=1}^{T}\left[f_{t}\left(\boldsymbol{w}_{t}\right)+r\left(\boldsymbol{w}_{t}\right)-\left(f_{t}\left(\boldsymbol{w}^{\star}\right)+r\left(\boldsymbol{w}^{\star}\right)\right)\right]
Rf+r(T)=t=1∑T[ft(wt)+r(wt)−(ft(w⋆)+r(w⋆))]理想情况下当然是对于任意长的序列,其regret bounds都是0。
作者修改了M. Zinkevich. Online convex programming and generalized infinitesimal gradient ascent. In Proceedings of the Twentieth International Conference on Machine Learning, 2003.
里的参数,对于
η
t
+
1
2
\eta_{t+\frac{1}{2}}
ηt+21 设为
η
t
\eta_t
ηt,那么会有理论3:
Theorem 3. 假设所有迭代都满足
∥
w
t
−
w
⋆
∥
≤
D
\left\|\boldsymbol{w}_{t}-\boldsymbol{w}^{\star}\right\| \leq D
∥wt−w⋆∥≤D,且
∂
f
t
\partial f_t
∂ft和
∂
r
\partial r
∂r的次梯度集的范数都≤G(bounded above by G)。令
c
>
0
c > 0
c>0 是一个任一标量,在
η
t
=
c
/
t
\eta_{t} = c/\sqrt{t}
ηt=c/t 时,FOBOS的regret bounds满足
R
f
+
r
(
T
)
≤
G
D
+
(
D
2
2
c
+
7
G
2
c
)
T
R_{f+r}(T) \leq GD + (\frac{D^2}{2c} +7G^2c)\sqrt{T}
Rf+r(T)≤GD+(2cD2+7G2c)T
文章称出于技术上的原因,对于
w
t
w_t
wt和次梯度的界限的假设实际上不是限制性的。对于FOBOS算法,是有可能得到
O
(
l
o
g
T
)
O(logT)
O(logT)的regret bound,只要loss function
f
r
(
⋅
)
f_r(·)
fr(⋅)或者
r
(
⋅
)
r(·)
r(⋅)具有强凸性质。
强凸性多用在优化中(Optimization),特别是保证很多基于梯度下降方法的算法的线形收敛速率的条件之一。一个可微函数强凸的定义是: f ( y ) ≥ f ( x ) + ∇ f ( x ) T ( y − x ) + u 2 ∣ ∣ y − x ∣ ∣ 2 f(y) \geq f(x) + \nabla f(x)^T(y-x) + \frac{u}{2}||y-x||^2 f(y)≥f(x)+∇f(x)T(y−x)+2u∣∣y−x∣∣2强凸比一般的凸函数更严格在于其中的的二次项.直观从一维函数来说,一般凸函数只要求函数曲线在其切线之上,至于“上”多少没有要求,也就意味着曲线可以无限“贴着”切线,只要保持在其上就行了。毫无疑问,在优化特别是梯度优化中,这种微弱的梯度变化很难实现快速优化,有可能在有限次数还达不到收敛。如果我们取一个接近最小值的解,这也很难。“非常”接近只是一个定性理解,在这种情况下会出现最优解很近似但是决策变量相差巨大的糟糕情况。这时候,多加一个二次项的,保证有一个二次下界,那么不会出现“贴着”切线的情况,优化也变得更加简单。
有的情况下,没有强凸的条件,可以人为加上一个二次项,以获得强凸特性。
原文链接:https://blog.csdn.net/qq_41769289/article/details/87694955
对于在线学习,使用regret analysis 可以给出随机FOBOS的收敛速度为 O ( T ) O(\sqrt{T}) O(T)。
Derived Algorithms
衍生算法,也就是一些变种啦。为了简化推导,文章用 v \boldsymbol v v 表示vector w t + 1 2 = w t − η t g t f \boldsymbol{w}_{t+\frac{1}{2}}=\boldsymbol{w}_{t}-\eta_{t} \boldsymbol{g}_{t}^{f} wt+21=wt−ηtgtf,用 λ ~ \tilde{\lambda} λ~ 表示 η t + 1 2 ⋅ λ \boldsymbol{\eta}_{t+\frac{1}{2}}·\lambda ηt+21⋅λ,此时公式(3)就可以重写为: min w 1 2 ( w − v ) 2 + λ ~ ∣ w ∣ \min _{w} \frac{1}{2}(w-v)^{2}+\tilde{\lambda}|w| minw21(w−v)2+λ~∣w∣。最后,使用 [ z ] + [z]_{+} [z]+ 表示 max { 0 , z } \max \{0, z\} max{0,z}。
L1正则下的FOBOS( ℓ 1 \ell_{1} ℓ1)
r
(
w
)
=
λ
∥
w
∥
1
r(\boldsymbol{w})=\lambda\|\boldsymbol{w}\|_{1}
r(w)=λ∥w∥1,此时最优解
w
⋆
=
w
t
+
1
w^{\star}=w_{t+1}
w⋆=wt+1为:
w
t
+
1
,
j
=
sign
(
w
t
+
1
2
,
j
)
[
∣
w
t
+
1
2
,
j
∣
−
λ
~
]
+
=
sign
(
w
t
,
j
−
η
t
g
t
,
j
f
)
[
∣
w
t
,
j
−
η
t
g
t
,
j
f
∣
−
λ
η
t
+
1
2
]
+
(6)
w_{t+1, j}=\operatorname{sign}\left(w_{t+\frac{1}{2}, j}\right)\left[\left|w_{t+\frac{1}{2}, j}\right|-\tilde{\lambda}\right]_{+}=\operatorname{sign}\left(w_{t, j}-\eta_{t} g_{t, j}^{f}\right)\left[\left|w_{t, j}-\eta_{t} g_{t, j}^{f}\right|-\lambda \eta_{t+\frac{1}{2}}\right]_{+} \tag{6}
wt+1,j=sign(wt+21,j)[∣∣∣wt+21,j∣∣∣−λ~]+=sign(wt,j−ηtgt,jf)[∣∣∣wt,j−ηtgt,jf∣∣∣−ληt+21]+(6)这个式子可以有稀疏解,只要
w
t
+
1
2
w_{t+\frac{1}{2}}
wt+21的绝对值比
λ
~
\tilde{\lambda}
λ~小,对应的新参数就变为了0,和“truncated gradient”很类似的。
L2正则下的FOBOS( ℓ 2 2 \ell_{2}^{2} ℓ22)
当
r
(
w
)
=
λ
2
∥
w
∥
2
2
r(\boldsymbol{w})=\frac{\lambda}{2}\|\boldsymbol{w}\|_{2}^{2}
r(w)=2λ∥w∥22,可以得到简单的优化问题
min
w
1
2
∥
w
−
v
∥
2
+
1
2
λ
~
∥
w
∥
2
\min _{\boldsymbol{w}} \frac{1}{2}\|\boldsymbol{w}-\boldsymbol{v}\|^{2}+\frac{1}{2} \tilde{\lambda}\|\boldsymbol{w}\|^{2}
minw21∥w−v∥2+21λ~∥w∥2,求导并令其等于0有
w
⋆
−
v
+
λ
~
w
⋆
=
0
\boldsymbol{w}^{\star}-\boldsymbol{v}+\tilde{\lambda} \boldsymbol{w}^{\star}=0
w⋆−v+λ~w⋆=0, 于是其更新规则为:
w
t
+
1
=
w
t
−
η
t
g
t
f
1
+
λ
~
(7)
\boldsymbol{w}_{t+1}=\frac{\boldsymbol{w}_{t}-\eta_{t} \boldsymbol{g}_{t}^{f}}{1+\tilde{\lambda}} \tag{7}
wt+1=1+λ~wt−ηtgtf(7),此时只是简单的收缩第一步的结果。
不常用的L2正则( ℓ 2 \ell_{2} ℓ2)
r
(
w
)
=
λ
∥
w
∥
2
r(\boldsymbol{w})=\lambda\|\boldsymbol{w}\|_{2}
r(w)=λ∥w∥2,此时
min
w
1
2
(
w
−
v
)
2
+
λ
~
∣
∣
w
∣
∣
\min _{w} \frac{1}{2}(w-v)^{2}+\tilde{\lambda}||w||
minw21(w−v)2+λ~∣∣w∣∣,这种情况下的解必须和
v
\boldsymbol{v}
v同向,即
w
∗
=
s
v
,
s
≥
0
\boldsymbol{w}^{*} = s\boldsymbol{v}, s \geq 0
w∗=sv,s≥0。此时有:
w
t
+
1
=
[
1
−
λ
~
∥
w
t
+
1
2
∥
]
+
=
[
1
−
λ
~
∥
w
t
−
η
t
g
t
f
∥
]
+
(
w
t
−
η
t
g
t
f
)
\boldsymbol{w}_{t+1}=\left[1-\frac{\tilde{\lambda}}{\left\|\boldsymbol{w}_{t+\frac{1}{2}}\right\|}\right]_{+}=\left[1-\frac{\tilde{\lambda}}{\left\|\boldsymbol{w}_{t}-\eta_{t} \boldsymbol{g}_{t}^{f}\right\|}\right]_{+}\left(\boldsymbol{w}_{t}-\eta_{t} \boldsymbol{g}_{t}^{f}\right)
wt+1=⎣⎡1−∥∥∥wt+21∥∥∥λ~⎦⎤+=⎣⎡1−∥∥∥wt−ηtgtf∥∥∥λ~⎦⎤+(wt−ηtgtf)【最后怎么多了一项小括号里的,我没看懂…】当
∥
w
t
−
η
t
g
t
f
∥
≤
λ
~
\left\|\boldsymbol{w}_{t}-\eta_{t} \boldsymbol{g}_{t}^{f}\right\| \leq \tilde{\lambda}
∥∥∥wt−ηtgtf∥∥∥≤λ~时,变为稀疏项。对于稀疏性,此条件比
ℓ
1
\ell_1
ℓ1的条件更为严格,因此在高维情况下不太可能成立。
后面的混合模式和无限范式完全看不懂啊…实验的话也略过啦
证明
为了证明理论1,先给出下面的:
Lemma 5 (Bounding Step Differences)
假如
∥
∂
f
(
w
)
∥
2
≤
A
f
(
w
)
+
G
2
,
∥
∂
r
(
w
)
∥
2
≤
A
r
(
w
)
+
G
2
\|\partial f(\boldsymbol{w})\|^{2} \leq A f(\boldsymbol{w})+G^{2}, \quad\|\partial r(\boldsymbol{w})\|^{2} \leq A r(\boldsymbol{w})+G^{2}
∥∂f(w)∥2≤Af(w)+G2,∥∂r(w)∥2≤Ar(w)+G2,并且令
η
t
+
1
≤
η
t
+
1
2
≤
η
t
\eta_{t+1} \leq \eta_{t+\frac{1}{2}} \leq \eta_{t}
ηt+1≤ηt+21≤ηt ,
η
t
≤
2
η
t
+
1
2
\eta_{t} \leq 2 \eta_{t+\frac{1}{2}}
ηt≤2ηt+21,使用公式(2)和公式(3)进行更新,则对于任意的标量
c
≤
4
c \leq 4
c≤4和
w
∗
w^{*}
w∗,有:
2
η
t
(
1
−
c
A
η
t
)
f
(
w
t
)
+
2
η
t
+
1
2
(
1
−
c
A
η
t
+
1
2
)
r
(
w
t
+
1
)
≤
2
η
t
f
(
w
⋆
)
+
2
η
t
+
1
2
r
(
w
⋆
)
+
∥
w
t
−
w
⋆
∥
2
−
∥
w
t
+
1
−
w
⋆
∥
2
+
7
η
t
η
t
+
1
2
G
2
(12)
\begin{array}{l} {2 \eta_{t}\left(1-c A \eta_{t}\right) f\left(\boldsymbol{w}_{t}\right)+2 \eta_{t+\frac{1}{2}}\left(1-c A \eta_{t+\frac{1}{2}}\right) r\left(\boldsymbol{w}_{t+1}\right)} \\ {\quad \leq 2 \eta_{t} f\left(\boldsymbol{w}^{\star}\right)+2 \eta_{t+\frac{1}{2}} r\left(\boldsymbol{w}^{\star}\right)+\left\|\boldsymbol{w}_{t}-\boldsymbol{w}^{\star}\right\|^{2}-\left\|\boldsymbol{w}_{t+1}-\boldsymbol{w}^{\star}\right\|^{2}+7 \eta_{t} \eta_{t+\frac{1}{2}} G^{2}} \tag{12} \end{array}
2ηt(1−cAηt)f(wt)+2ηt+21(1−cAηt+21)r(wt+1)≤2ηtf(w⋆)+2ηt+21r(w⋆)+∥wt−w⋆∥2−∥wt+1−w⋆∥2+7ηtηt+21G2(12)
Proof of Lemma 5:根据公式(4),有
w
t
+
1
−
w
t
=
−
η
t
g
t
f
−
η
t
+
1
2
g
t
+
1
r
(13)
\boldsymbol{w}_{t+1}-\boldsymbol{w}_{t}=-\eta_{t} \boldsymbol{g}_{t}^{f}-\eta_{t+\frac{1}{2}} \boldsymbol{g}_{t+1}^{r} \tag{13}
wt+1−wt=−ηtgtf−ηt+21gt+1r(13)那么根据次梯度的定义,有
r
(
w
⋆
)
≥
r
(
w
t
+
1
)
+
⟨
g
t
+
1
r
,
w
⋆
−
w
t
+
1
⟩
⇒
−
⟨
g
t
+
1
r
,
w
t
+
1
−
w
⋆
⟩
≤
r
(
w
⋆
)
−
r
(
w
t
+
1
)
r\left(\boldsymbol{w}^{\star}\right) \geq r\left(\boldsymbol{w}_{t+1}\right)+\left\langle\boldsymbol{g}_{t+1}^{r}, \boldsymbol{w}^{\star}-\boldsymbol{w}_{t+1}\right\rangle \Rightarrow-\left\langle\boldsymbol{g}_{t+1}^{r}, \boldsymbol{w}_{t+1}-\boldsymbol{w}^{\star}\right\rangle \leq r\left(\boldsymbol{w}^{\star}\right)-r\left(\boldsymbol{w}_{t+1}\right)
r(w⋆)≥r(wt+1)+⟨gt+1r,w⋆−wt+1⟩⇒−⟨gt+1r,wt+1−w⋆⟩≤r(w⋆)−r(wt+1)根据柯西不等式
∣
a
∣
⋅
∣
b
∣
≥
∣
a
⋅
b
∣
,
a
=
(
a
1
,
a
2
,
⋯
,
a
n
)
,
b
=
(
b
1
,
b
2
,
⋯
,
b
n
)
|a| \cdot|b| \geq|a \cdot b|, a=\left(a_{1}, a_{2}, \cdots, a_{n}\right), b=\left(b_{1}, b_{2}, \cdots, b_{n}\right)
∣a∣⋅∣b∣≥∣a⋅b∣,a=(a1,a2,⋯,an),b=(b1,b2,⋯,bn),可以得到:
⟨
g
t
+
1
r
,
(
w
t
+
1
−
w
t
)
⟩
=
⟨
g
t
+
1
r
,
(
−
η
t
g
t
f
−
η
t
+
1
2
g
t
+
1
r
)
⟩
≤
∥
g
t
+
1
r
∥
∥
η
t
+
1
2
g
t
+
1
r
+
η
t
g
t
f
∥
≤
η
t
+
1
2
∥
g
t
+
1
r
∥
2
+
η
t
∥
g
t
+
1
r
∥
∥
g
t
f
∥
≤
η
t
+
1
2
(
A
r
(
w
t
+
1
)
+
G
2
)
+
η
t
max
{
A
f
(
w
t
)
+
G
2
,
Ar
(
w
t
+
1
)
+
G
2
}
(15)
\begin{array}{l} {\left\langle\boldsymbol{g}_{t+1}^{r},\left(\boldsymbol{w}_{t+1}-\boldsymbol{w}_{t}\right)\right\rangle=\left\langle\boldsymbol{g}_{t+1}^{r},\left(-\eta_{t} \boldsymbol{g}_{t}^{f}-\eta_{t+\frac{1}{2}} \boldsymbol{g}_{t+1}^{r}\right)\right\rangle} \\ {\leq\left\|\boldsymbol{g}_{t+1}^{r}\right\|\left\|\eta_{t+\frac{1}{2}} \boldsymbol{g}_{t+1}^{r}+\eta_{t} \boldsymbol{g}_{t}^{f}\right\| \leq \eta_{t+\frac{1}{2}}\left\|\boldsymbol{g}_{t+1}^{r}\right\|^{2}+\eta_{t}\left\|\boldsymbol{g}_{t+1}^{r}\right\|\left\|\boldsymbol{g}_{t}^{f}\right\|} \\ {\leq \eta_{t+\frac{1}{2}}\left(A r\left(\boldsymbol{w}_{t+1}\right)+G^{2}\right)+\eta_{t} \max \left\{A f\left(\boldsymbol{w}_{t}\right)+G^{2}, \operatorname{Ar}\left(\boldsymbol{w}_{t+1}\right)+G^{2}\right\}} \tag{15} \end{array}
⟨gt+1r,(wt+1−wt)⟩=⟨gt+1r,(−ηtgtf−ηt+21gt+1r)⟩≤∥∥gt+1r∥∥∥∥∥ηt+21gt+1r+ηtgtf∥∥∥≤ηt+21∥∥gt+1r∥∥2+ηt∥∥gt+1r∥∥∥∥∥gtf∥∥∥≤ηt+21(Ar(wt+1)+G2)+ηtmax{Af(wt)+G2,Ar(wt+1)+G2}(15)而
w
t
+
1
w_{t+1}
wt+1和
w
∗
w^{*}
w∗之间的bound为:
∥
w
t
+
1
−
w
⋆
∥
2
=
∥
w
t
−
(
η
t
g
t
f
+
η
t
+
1
2
g
t
+
1
r
)
−
w
⋆
∥
2
=
∥
w
t
−
w
⋆
∥
2
−
2
[
η
t
⟨
g
t
f
,
w
t
−
w
⋆
⟩
+
η
t
+
1
2
⟨
g
t
+
1
r
,
w
t
−
w
⋆
⟩
]
+
∥
η
t
g
t
f
+
η
t
+
1
2
g
t
+
1
r
∥
2
=
∥
w
t
−
w
⋆
∥
2
−
2
η
t
⟨
g
t
f
,
w
t
−
w
⋆
⟩
+
∥
η
t
g
t
f
+
η
t
+
1
2
g
t
+
1
r
∥
2
−
2
η
t
+
1
2
[
⟨
g
t
+
1
r
,
w
t
+
1
−
w
⋆
⟩
−
⟨
g
t
+
1
r
,
w
t
+
1
−
w
t
⟩
]
(16)
\begin{array}{l} {\left\|\boldsymbol{w}_{t+1}-\boldsymbol{w}^{\star}\right\|^{2}=\left\|\boldsymbol{w}_{t}-\left(\eta_{t} \boldsymbol{g}_{t}^{f}+\eta_{t+\frac{1}{2}} \boldsymbol{g}_{t+1}^{r}\right)-\boldsymbol{w}^{\star}\right\|^{2}} \\ {=\left\|\boldsymbol{w}_{t}-\boldsymbol{w}^{\star}\right\|^{2}-2\left[\eta_{t}\left\langle\boldsymbol{g}_{t}^{f}, \boldsymbol{w}_{t}-\boldsymbol{w}^{\star}\right\rangle+\eta_{t+\frac{1}{2}}\left\langle\boldsymbol{g}_{t+1}^{r}, \boldsymbol{w}_{t}-\boldsymbol{w}^{\star}\right\rangle\right]+\left\|\eta_{t} \boldsymbol{g}_{t}^{f}+\eta_{t+\frac{1}{2}} \boldsymbol{g}_{t+1}^{r}\right\|^{2}} \\ {=\left\|\boldsymbol{w}_{t}-\boldsymbol{w}^{\star}\right\|^{2}-2 \eta_{t}\left\langle\boldsymbol{g}_{t}^{f}, \boldsymbol{w}_{t}-\boldsymbol{w}^{\star}\right\rangle+\left\|\eta_{t} \boldsymbol{g}_{t}^{f}+\eta_{t+\frac{1}{2}} \boldsymbol{g}_{t+1}^{r}\right\|^{2}} \\ {} \quad {-2 \eta_{t+\frac{1}{2}}\left[\left\langle\boldsymbol{g}_{t+1}^{r}, \boldsymbol{w}_{t+1}-\boldsymbol{w}^{\star}\right\rangle-\left\langle\boldsymbol{g}_{t+1}^{r}, \boldsymbol{w}_{t+1}-\boldsymbol{w}_{t}\right\rangle\right]} \tag{16} \end{array}
∥wt+1−w⋆∥2=∥∥∥wt−(ηtgtf+ηt+21gt+1r)−w⋆∥∥∥2=∥wt−w⋆∥2−2[ηt⟨gtf,wt−w⋆⟩+ηt+21⟨gt+1r,wt−w⋆⟩]+∥∥∥ηtgtf+ηt+21gt+1r∥∥∥2=∥wt−w⋆∥2−2ηt⟨gtf,wt−w⋆⟩+∥∥∥ηtgtf+ηt+21gt+1r∥∥∥2−2ηt+21[⟨gt+1r,wt+1−w⋆⟩−⟨gt+1r,wt+1−wt⟩](16)上面的式子的第三小项:
∥
η
t
g
t
f
+
η
t
+
1
2
g
t
+
1
r
∥
2
=
η
t
2
∥
g
t
f
∥
2
+
2
η
t
η
t
+
1
2
⟨
g
t
f
,
g
t
+
1
r
⟩
+
η
t
+
1
2
2
∥
g
t
+
1
r
∥
2
≤
η
t
2
A
f
(
w
t
)
+
2
A
η
t
η
t
+
1
2
max
{
f
(
w
t
)
,
r
(
w
t
+
1
)
}
+
η
t
+
1
2
2
Ar
(
w
t
+
1
)
+
4
η
t
2
G
2
\begin{array}{l} {\left\|\eta_{t} \boldsymbol{g}_{t}^{f}+\eta_{t+\frac{1}{2}} \boldsymbol{g}_{t+1}^{r}\right\|^{2}} \\ {\quad=\eta_{t}^{2}\left\|\boldsymbol{g}_{t}^{f}\right\|^{2}+2 \eta_{t} \eta_{t+\frac{1}{2}}\left\langle\boldsymbol{g}_{t}^{f}, \boldsymbol{g}_{t+1}^{r}\right\rangle+\eta_{t+\frac{1}{2}}^{2}\left\|\boldsymbol{g}_{t+1}^{r}\right\|^{2}} \\ {\quad \leq \eta_{t}^{2} A f\left(\boldsymbol{w}_{t}\right)+2 A \eta_{t} \eta_{t+\frac{1}{2}} \max \left\{f\left(\boldsymbol{w}_{t}\right), r\left(\boldsymbol{w}_{t+1}\right)\right\}+\eta_{t+\frac{1}{2}}^{2} \operatorname{Ar}\left(\boldsymbol{w}_{t+1}\right)+4 \eta_{t}^{2} G^{2}} \end{array}
∥∥∥ηtgtf+ηt+21gt+1r∥∥∥2=ηt2∥∥∥gtf∥∥∥2+2ηtηt+21⟨gtf,gt+1r⟩+ηt+212∥∥gt+1r∥∥2≤ηt2Af(wt)+2Aηtηt+21max{f(wt),r(wt+1)}+ηt+212Ar(wt+1)+4ηt2G2这里解释一下从第二行到第三行,第二行的第一项有一个
G
2
G^{2}
G2, 第三项有一个
G
2
G^{2}
G2,中间项的内积相乘可以看做大数和小数的内积,当然小于等于大数和本身自己的内积,替换后又产生两个
G
2
G^2
G2
将上面的结果和公式(15)带入公式(16),有:
∥
w
t
+
1
−
w
⋆
∥
2
≤
∥
w
t
−
w
⋆
∥
2
−
2
η
t
⟨
g
t
f
,
w
t
−
w
⋆
⟩
−
2
η
t
+
1
2
⟨
g
t
+
1
r
,
w
t
+
1
−
w
⋆
⟩
+
∥
η
t
g
t
f
+
η
t
+
1
2
g
t
+
1
r
∥
2
+
2
η
t
+
1
2
(
η
t
+
1
2
Ar
(
w
t
+
1
)
+
2
A
η
t
max
{
f
(
w
t
)
,
r
(
w
t
+
1
)
}
+
2
η
t
G
2
)
≤
∥
w
t
−
w
⋆
∥
2
+
2
η
t
(
f
(
w
⋆
)
−
f
(
w
t
)
)
+
2
η
t
+
1
2
(
r
(
w
⋆
)
−
r
(
w
t
)
)
+
7
η
t
2
G
2
+
η
t
2
A
f
(
w
t
)
+
3
A
η
t
η
t
+
1
2
max
{
f
(
w
t
)
,
r
(
w
t
)
}
+
2
η
t
+
1
2
2
Ar
(
w
t
+
1
)
≤
∥
w
t
−
w
⋆
∥
2
+
7
η
t
2
G
2
+
2
η
t
(
f
(
w
⋆
)
−
(
1
−
c
A
η
t
)
f
(
w
t
)
)
+
2
η
t
+
1
2
(
r
(
w
⋆
)
−
(
1
−
c
A
η
t
+
1
2
)
r
(
w
t
+
1
)
)
\begin{array}{l} {\left\|\boldsymbol{w}_{t+1}-\boldsymbol{w}^{\star}\right\|^{2}} \\ {\leq\left\|\boldsymbol{w}_{t}-\boldsymbol{w}^{\star}\right\|^{2}-2 \eta_{t}\left\langle\boldsymbol{g}_{t}^{f}, \boldsymbol{w}_{t}-\boldsymbol{w}^{\star}\right\rangle- 2 \eta_{t+\frac{1}{2}}\left\langle\boldsymbol{g}_{t+1}^{r}, \boldsymbol{w}_{t+1}-\boldsymbol{w}^{\star}\right\rangle+\left\|\eta_{t} \boldsymbol{g}_{t}^{f}+\eta_{t+\frac{1}{2}} \boldsymbol{g}_{t+1}^{r}\right\|^{2}} \\ {\quad+2 \eta_{t+\frac{1}{2}}\left(\eta_{t+\frac{1}{2}} \operatorname{Ar}\left(\boldsymbol{w}_{t+1}\right)+2 A \eta_{t} \max \left\{f\left(\boldsymbol{w}_{t}\right), r\left(\boldsymbol{w}_{t+1}\right)\right\}+2 \eta_{t} G^{2}\right)} \\ {\leq\left\|\boldsymbol{w}_{t}-\boldsymbol{w}^{\star}\right\|^{2}+2 \eta_{t}\left(f\left(\boldsymbol{w}^{\star}\right)-f\left(\boldsymbol{w}_{t}\right)\right)+2 \eta_{t+\frac{1}{2}}\left(r\left(\boldsymbol{w}^{\star}\right)-r\left(\boldsymbol{w}_{t}\right)\right)+7 \eta_{t}^{2} G^{2}} \\ {\quad+\eta_{t}^{2} A f\left(\boldsymbol{w}_{t}\right)+3 A \eta_{t} \eta_{t+\frac{1}{2}} \max \left\{f\left(\boldsymbol{w}_{t}\right), r\left(\boldsymbol{w}_{t}\right)\right\}+2 \eta_{t+\frac{1}{2}}^{2} \operatorname{Ar}\left(\boldsymbol{w}_{t+1}\right)} \\ {} \begin{aligned} \leq &\left\|\boldsymbol{w}_{t}-\boldsymbol{w}^{\star}\right\|^{2}+7 \eta_{t}^{2} G^{2} \\ &+2 \eta_{t}\left(f\left(\boldsymbol{w}^{\star}\right)-\left(1-c A \eta_{t}\right) f\left(\boldsymbol{w}_{t}\right)\right)+2 \eta_{t+\frac{1}{2}}\left(r\left(\boldsymbol{w}^{\star}\right)-\left(1-c A \eta_{t+\frac{1}{2}}\right) r\left(\boldsymbol{w}_{t+1}\right)\right) \end{aligned} \end{array}
∥wt+1−w⋆∥2≤∥wt−w⋆∥2−2ηt⟨gtf,wt−w⋆⟩−2ηt+21⟨gt+1r,wt+1−w⋆⟩+∥∥∥ηtgtf+ηt+21gt+1r∥∥∥2+2ηt+21(ηt+21Ar(wt+1)+2Aηtmax{f(wt),r(wt+1)}+2ηtG2)≤∥wt−w⋆∥2+2ηt(f(w⋆)−f(wt))+2ηt+21(r(w⋆)−r(wt))+7ηt2G2+ηt2Af(wt)+3Aηtηt+21max{f(wt),r(wt)}+2ηt+212Ar(wt+1)≤∥wt−w⋆∥2+7ηt2G2+2ηt(f(w⋆)−(1−cAηt)f(wt))+2ηt+21(r(w⋆)−(1−cAηt+21)r(wt+1))这里实在是没有看懂,一共是三个不等式,对于第一个不等式,完全就是将
⟨
g
t
+
1
r
,
w
t
+
1
−
w
t
⟩
\left\langle\boldsymbol{g}_{t+1}^{r}, \boldsymbol{w}_{t+1}-\boldsymbol{w}_{t}\right\rangle
⟨gt+1r,wt+1−wt⟩展开,根据公式(15),为什么会有
2
A
η
t
max
{
f
(
w
t
)
,
r
(
w
t
+
1
)
}
2 A \eta_{t} \max \left\{f\left(\boldsymbol{w}_{t}\right), r\left(\boldsymbol{w}_{t+1}\right)\right\}
2Aηtmax{f(wt),r(wt+1)}呢,这个 2 从哪里来呢;
然后就是第二个不等式,先不说那些奇怪的系数怎么对应的上,前面还是
max
{
f
(
w
t
)
,
r
(
w
t
+
1
)
}
\max \left\{f\left(\boldsymbol{w}_{t}\right), r\left(\boldsymbol{w}_{t+1}\right)\right\}
max{f(wt),r(wt+1)},后面怎么变成
max
{
f
(
w
t
)
,
r
(
w
t
)
}
\max \left\{f\left(\boldsymbol{w}_{t}\right), r\left(\boldsymbol{w}_{t}\right)\right\}
max{f(wt),r(wt)}了呢,我估计是论文里写错了。此外,最后一个不等式的成立运用到了
3
A
η
t
η
t
+
1
2
≤
6
A
η
t
2
3 A \eta_{t} \eta_{t+\frac{1}{2}} \leq 6 A \eta_{t}^{2}
3Aηtηt+21≤6Aηt2 和
max
{
a
,
b
}
≤
a
+
b
\max \{a, b\} \leq a+b
max{a,b}≤a+b,而我依然没发现怎么成立的,应该是第二个式子里
η
t
2
A
f
(
w
t
)
\eta_{t}^{2} A f\left(\boldsymbol{w}_{t}\right)
ηt2Af(wt) 前面系数由1变为2 ,反正是小于等于,多加一个依然成立。但是你加一些有的没的又不说清楚的话,对于我这种笨脑子好难哦
有了上面的结果,theorem 1就很好证明了 ,这里就不叙述了。整篇文章数学性很高,我读起来很吃力,只能大致领会其中的关键意志:首先来个正常的,然后构造个式子,在距离原始结果不远的同时提高一下稀疏性。给大佬跪了~,很多地方自己也不是很清楚,希望以后再阅读的时候能够理解。
更多推荐
所有评论(0)