标签:direction == ati training 阿里 定义 network The 博客
在DeepLearning日益发展的同时,模型压缩的关注度也越来越大。继BWN和TWN之后, 这篇论文在超低比特量化领域的一篇新思想文章,发表在AAAI2018上,作者是阿里的。
该文的主要思想是将超低bit quantization建模成一个离散约束优化问题(discretely constrained optimization problem)。借助ADMM(Alternating Direction Method of Mutipliers)思想,将连续参数从网络的离散约束中分离出来,并将原来的难题转化为几个子问题。该文针对这些子问题采用了extragradient以及iterative quantization算法(比传统算法更快收敛)。实验在图像分类以及目标检测(SSD)上都比最新的方法要好。
该文提出了一个独特的strategy,将超低bit weights作为一个离散约束的非凸优化问题(MIP)。借助ADMM算法,本文主要思想是使用离散空间中的辅助变量将离散约束中的连续变量解耦。不像之前量化方法修改连续参数中的特定梯度,本文同时优化连续和离散空间,使用增广拉格朗日函数连接了两个空间的解。
主要参考这篇博客http://mullover.me/2016/01/19/admm-for-distributed-statistical-learning/
若优化问题可以表示为
$$ min\quad f(x)+g(z) \quad s.t.\quad Ax+Bz=c\quad (1)$$
其中$x\in \mathbb R^s,z\in \mathbb R^n, A\in \mathbb R^{p \times n}, B\in \mathbb R^{p \times m} ; and ; c\in \mathbb R^p.$ $x$与$z$是优化变量,$f(x)+g(z)$是目标函数,$Ax+Bz=c$是等式约束条件。
等式$(1)$的增广拉格朗日函数(augmented Lagrangian)可以表示为:
$$L_\rho(x,z,y)=f(x)+g(z)+y^T(Ax+Bz-c)+(\rho/2)\Vert Ax+Bz-c \Vert^2_2 \quad (2)$$
其中$y$是拉格朗日乘子, $\rho>0$是惩罚参数。增广就是由于加入了二次惩罚项。
则ADMM由三步迭代组成:
$$x^{k+1}:=arg\min\limits_xL_\rho(x,z^k,y^k)$$
$$z^{k+1}:=arg\min\limits_zL_\rho(x^{k+1},z,y^k)$$
$$y^{k+1}:=y^k+\rho(Ax^{k+1}+Bz^{k+1}-c)$$
可以看出,每次迭代分为三步:
1.求解与$x$相关的最小化问题,更新变量$x$
2.求解与$x$相关的最小化问题,更新变量$x$
3.更新$\rho$
记作$f(W)$为一个NN的loss fuction, $W=${$W_1,W_2,...,W_L$}, $W_i$代表网络的第$i$层的权重,$W_i$是一个$d_i$维的向量$\mathbb R^{d_i}$, $W\in \mathbb R^d, d=\sum_id_i$.本文中由于是训练超低bit进行量化,特别的,网络中的weights被严格限制为0或者是2的幂次方,这样float-point操作就可以被更快的bit移位操作所代替。假设training一个三元网络{$-1,0,+1$},这样就training这样的网络就可以在数学公式上作为MIP:
$$\min\limits_W;f(W) \quad s.t.; W\in C={-1,0,+1}^d$$
由于weights被严格限制为0或者2的幂次方,所以$C={-2^N,...-2^{-1},-2^0,0,+2^0,+2^1,...,+2^N}$, N是bits的数量。在这里引入一个scaling factor参数$\alpha$来限制$C$,$C={...,-2\alpha,-\alpha,0+\alpha,+2\alpha,...}$.$\alpha>0$.这里应该注意的是不同层的$\alpha$是不同的。换句话说,对于一个$L$层的网络来说,实际是引入了L个不同的scaling factors ${\alpha_1,...,\alpha_L}$。这样低比特量化网络的目标函数可以表示为:
$$\min\limits_W;f(W) \quad s.t.W\in C=C_1\times C_2 \times ...\times C_L \quad(3)$$
$C_i={0,\pm\alpha_i,\pm2\alpha_i,...,\pm2^N\alpha_i},\alpha_i>0.$其实$\alpha_i$在每层中是不需要花更多的计算量的,由于可以在最后乘以这个因子就可以。$\alpha_i$可以帮助扩展constraint space.如下图,
在二维的空间中,上图是一个三元网络,被限制为${-1,0,+1}$,可能的解是九个离散点,当增加$\alpha$因子之后,约束空间被扩展为四条线。这种约束空间的large expansion可以是优化变得更容易。
公式(3)其实是一个NP难问题,由于weights被限制在一个离散的空间。这里引入一个辅助变量,受离散空间限制,让它等于原始变量。首先,定义一个indicator function $I_C, W\in C$, 目标函数(3)变成
$$\min\limits_W\quad f(W)+I_C(W)\quad (4)$$
其中如果$W\in C$, $I_C(W)=0$, 否则$I_C(W)=+\infty$
引入辅助变量$G$,重写公式(4),
$$\min\limits_{W,G} \quad f(W)+I_C(G), s.t. W=G \quad (5)$$,公式(5)的增广拉格朗日函数为:
$$L_\rho(W,G,\mu)=f(W)+I_C(G)+(\rho/2)\Vert W-G \Vert^2+<\mu,W-G> \quad (6)$$
$\lambda=(1/\rho)\mu$,公式(6)可以被转化为:
$$L_\rho(W,G,\mu)=f(W)+I_C(G)+(\rho/2)\Vert W-G +\lambda\Vert^2-(\rho/2)\Vert\lambda\Vert^2 \quad (7)$$
根据ADMM,这个问题的求解迭代步骤:
$$W^{k+1}:=arg\min\limits_WL_{\rho}(W,G^k,\lambda^k)$$
$$G^{k+1}:=arg\min\limits_WL_{\rho}(W^{k+1},G,\lambda^k)$$
$$\lambda_{k+1}:=\lambda^k+W^{k+1}-G^{k+1}$$
这三部分别是proximal step, projection step以及dual update.跟之前的工作不同的是,这里是同时在连续空间以及离散空间优化问题,这样在learning过程中两个空间的解通过ADMM算法就联系在一起了。
1.Proximal step
对于这个步骤,在连续space优化(??为什么是连续空间,W和G都是离散空间的啊~想不通),需要最小化下面这个公式
$$L_{\rho}(W,G^k,\lambda^k)=f(W)+(\rho/2)\Vert W-G^k+\lambda^k\Vert^2$$
利用standard梯度下降方法可以得到$W$的梯度:
$$\partial_WL=\partial_Wf+\rho(W-G^k+\lambda^k)$$
然而该文发现用venilla梯度下降方法收敛很慢,因为第二个平方项在整个lost中所占比重很大,因此SGD迅速将优化器拉回到当前量化的权重以至于第二项消失(Since the second quadratic term occupies a large proportion of the whole lost, SGD will quickly pull the optimizer to the currently quantized weights so that the second term vanishes, and stack in that point没太懂?)。这就导致了loss的次优解,由于网络的损失函数没有得到充分的优化。
为了克服这个困难,本文采用了extragradient方法。extragradient方法的一次迭代由两个简单的步骤组成,prediction和correction:
$$W^{(p)}:=W-\beta_p\partial_WL(W)$$
$$W^{(c)}:=W-\beta_c\partial_WL(W^{(p)})$$
其中$\beta_p$和$\beta_c$都是学习率。extragradient方法的显著特点是使用了额外的梯度步骤,这可以当做在优化过程中的一个guide。这种额外的迭代考虑了曲率信息,导致比stardard梯度下降方法更好的收敛。对于prediction step,算法将快速move到接近$G^k-\lambda^k$值的一个点进而导致了平方项消失;对于correction step,算法最小化loss函数$f(W)$。这两个步骤就避免陷入局部最小。在实践中,这种方法极大地加速了收敛。
2.projection step
对于辅助变量$G$来说,所有$G_i$都被解耦,因此每层的辅助变量$G_i$都可以被独立的被优化。寻找一种Euclidean映射可以将$(W_i^{k+1}+\lambda_i^k)$映射到离散的$C_i$上。这里记作$(W_i^{k+1}+\lambda_i^k)$为$V_i$.这种映射可以被表示为:
$$\min\limits_{G_i,\alpha_i}\quad \Vert V_i-G_i\Vert^2$$
$$s.t. G_i\in{0,\pm\alpha_i,\pm2\alpha_i,...,\pm2^N\alpha_i}^{d_i}$$
将scaling因子拿掉,变为:
$$\min\limits_{G_i,\alpha_i}\quad \Vert V_i-\alpha_i \cdot Q_i\Vert^2$$
$$s.t. Q_i\in{0,\pm1,\pm2,...,\pm2^N}^{d_i}$$
本文提出了一种量化迭代方法,该方法交替优化$\alpha_i$和$Q_i$,一个固定另一个变。当$Q_i$固定的时候,这个问题变成了一个单变量优化,$\alpha_i={V_i^TQ_i \over Q_i^TQ_i}$。当$\alpha_i$固定,$Q_i$实际是${V_i \over \alpha_i}$在${0,\pm1,\pm2,...,\pm2_N}$上的投影,$Q_i=\prod_{{0,\pm1,\pm2,...,\pm2_N}}({V_i \over \alpha_i})$。
可以看出无论是在哪个网络,本文超低比特量化都最突出。
需要着重看的是,为什么GoogleNet会降低的比较多,本文的猜测+实验是由于$1\times1$的卷积核用这样强的一个调节器来优化会导致网络的欠拟合。在网络的不同部分用不同的bit来量化会更为有效。
Extremely Low Bit Neural Network: Squeeze the Last Bit Out with ADMM
标签:direction == ati training 阿里 定义 network The 博客
原文地址:https://www.cnblogs.com/ajj611/p/9124362.html