码迷,mamicode.com
首页 > 其他好文 > 详细

Group Normalization

时间:2018-06-15 10:53:42      阅读:152      评论:0      收藏:0      [点我收藏+]

标签:com   ali   团队   name   alt   声明   tool   get   sdn   

Group Normalization

FAIR 团队,吴育昕和恺明大大的新作Group Normalization

技术分享图片

 

主要的优势在于,BN会受到batchsize大小的影响。如果batchsize太小,算出的均值和方差就会不准确,如果太大,显存又可能不够用。

而GN算的是channel方向每个group的均值和方差,和batchsize没关系,自然就不受batchsize大小的约束。

从上图可以看出,随着batchsize的减小,GN的表现基本不受影响,而BN的性能却越来越差。

 

BatchNorm基础:

技术分享图片

技术分享图片

 

其中u为均值,seigema为方差,实际训练中使用指数滑动平均EMA计算。

gamma为scale值,beta为shift值

技术分享图片

 

BatchNorm:batch方向做归一化,算N*H*W的均值

LayerNorm:channel方向做归一化,算C*H*W的均值

InstanceNorm:一个channel内做归一化,算H*W的均值

GroupNorm:将channel方向分group,然后每个group内做归一化,算(C//G)*H*W的均值


 

Tensorflow代码:

[python] view plain copy
 
  1. def GroupNorm(x,G=16,eps=1e-5):  
  2.     N,H,W,C=x.shape       
  3.     x=tf.reshape(x,[tf.cast(N,tf.int32),tf.cast(H,tf.int32),tf.cast(W,tf.int32),tf.cast(G,tf.int32),tf.cast(C//G,tf.int32)])  
  4.     mean,var=tf.nn.moments(x,[1,2,4],keep_dims=True)  
  5.     x=(x-mean)/tf.sqrt(var+eps)  
  6.     x=tf.reshape(x,[tf.cast(N,tf.int32),tf.cast(H,tf.int32),tf.cast(W,tf.int32),tf.cast(C,tf.int32)])  
  7.     gamma = tf.Variable(tf.ones(shape=[1,1,1,tf.cast(C,tf.int32)]), name="gamma")  
  8.     beta = tf.Variable(tf.zeros(shape=[1,1,1,tf.cast(C,tf.int32)]), name="beta")  
  9.     return x*gamma+beta  

 

References:

https://www.zhihu.com/question/269576836/answer/348670955

https://github.com/taokong/group_normalization

https://github.com/shaohua0116/Group-Normalization-Tensorflow
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_14845119/article/details/79702040

Group Normalization

标签:com   ali   团队   name   alt   声明   tool   get   sdn   

原文地址:https://www.cnblogs.com/adong7639/p/9185918.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!