标签:return spec rate nts not lam sse 过拟合 layer
常用层对应于core模块,core内部定义了一系列常用的网络层,包括全连接、激活层等
keras.layers.core.Dense(units, activation=None, use_bias=True, kernel_initializer=‘glorot_uniform‘, bias_initializer=‘zeros‘, kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, bias_constraint=None)
Dense就是常用的全连接层,所实现的运算是output = activation(dot(input ,kernel) + bias ).其中activation是逐元素计算的激活函数,kernel是本层的权值矩阵,bias为偏置向量,只有当use_bias=True才会添加。
如果本层的输入数据的维度大于2,则会先被压为与kernel相匹配的大小。
#as first Layer in a sequential model: #as first Layer in a sequential model: model = Sequential() model.add(Dense(32, input_shape=(16,))) #now the model will take as input arrays of shape(* , 16) #and output arrays of shape (* , 32) #after the first layer , you don‘t need to specify #the size of the input anymore: model.add(Dense(32))
形如(batch_size,.......,input_dim)的nD张量,最常见的情况为(batch_size,input_dim)的2D张量
形如(batch_size,..........,units)的nD张量,最常见的情况为(batch_size,units)的2D张量
keras.layers.core.Activation(activation)
激活层对一个层的输出施加激活函数
任意,当使用激活层作为第一层时,要指定input_shape
与输入shape相同
keras.layers.core.Dropout(rate , noise_shape=None ,seed=None)
为输入数据施加Dropout。Dropout将在训练过程中每次更新参数时按一定概率(rate)随机断开输入神经元,Dropout层用于防止过拟合。
keras.layers.core.Flatten()
Flatten层用来将输入“压平”,即把多维的输入一维化,常用在从卷积层到全连接层的过度。Flatten不影响batch的大小。
model = Sequential() model.add(Convolution2D(64,3,3,border_mode=‘same‘,input_shape=(3,32,32))) #now:model.output_shape ==(None,64,32,32) model.add(Flatten()) #now:model.output_shape == (None,65536)
keras.layers.core.Reshape(target_shape)
Reshape层用来将输入shape转换为特定的shape
任意,但输入的shape必须固定。当使用该层为模型首层时,需要指定input_shape参数
(batch_size,)+target_shape
#as first Layer in a Sequential model model = Sequential() model.add(Reshape((3,4),input_shape=(12,))) #now:model.output_shape == (None,3,4) #note: ‘None‘ is the batch dimension # as intermediate layer in a Sequential model model.add(Reshape((6, 2))) # now: model.output_shape == (None, 6, 2) # also supports shape inference using `-1` as dimension model.add(Reshape((-1, 2, 2))) # now: model.output_shape == (None, 3, 2, 2)
keras.layers.core.Permute(dims)
Permute层将输入的维度按照给定模式进行重排,例如,当需要将RNN和CNN网络连接时,可能会用到该层。
model = Sequential() model.add(Permute((2,1), input_shape=(10,64))) #now:model.output_shape == (None, 64,10) #note: ‘None‘ is the batch dimension
任意,当使用激活层作为第一层时,要指定input_shape
与输入相同,但是其维度按照指定的模式重新排列
keras.layers.core.RepeatVector(n)
RepeatVector层将输入重复n次
形如(nb_samples,features)的2D张量
形如(nb_samples,features)的3D张量
model = Sequential() model.add(Dense(32,input_dim=32)) #now:model.output_shape == (None,32) #note:‘None‘ is the batch dimension model.add(RepeatVector(3)) #now:model.output_shape == (None,3,32)
keras.layers.core.Lambda(function,output_shape,mask=None,arguments=None)
本函数用以对上一层的输出施以任何Theano/TensorFlow表达式
# add a x -> x^2 layer model.add(Lambda(lambda x: x ** 2)) def antirectifier(x): x -= K.mean(x, axis=1, keepdims=True) x = K.l2_normalize(x, axis=1) pos = K.relu(x) neg = K.relu(-x) return K.concatenate([pos, neg], axis=1) def antirectifier_output_shape(input_shape): shape = list(input_shape) assert len(shape) == 2 # only valid for 2D tensors shape[-1] *= 2 return tuple(shape) model.add(Lambda(antirectifier, output_shape=antirectifier_output_shape))
任意,当使用该层作为第一层时,要指定input_shape
由output_shape参数指定的输出shape,当使用tensorflow时可自动推断
keras.layers.core.ActivityRegularization(l1=0.0,l2=0.0)
经过本层的数据不会有任何变化,但会基于其激活值更新损失函数值
任意,当使用该层作为第一层时,要指定input_shape
与输入shape相同
keras.layers.core.Masking(mask_value=0.0)
使用给定的值对输入的序列信号进行“屏蔽”,用以定位需要跳过的时间步
对于输入张量的时间步,即输入张量的第1维度(维度从0开始算),如果输入张量在该时间步上都等于mask_value,则该时间步在模型接下来的所有层(只需要支持masking)被跳过(屏蔽)。
如果模型接下来的一些层不支持masking,却接受到masking过的数据,则抛出异常,则抛出异常。
考虑输入数据x是一个形如(samples,timesteps,features)的张量,现将其送入LSTM层。因为你缺少时间步为3和5的信号,所以你希望将其掩盖。这时候应该:
model = Sequential() model.add(Masking(mask_value=0,input_shape=(timesteps,features))) model.add(LSTM(32))
标签:return spec rate nts not lam sse 过拟合 layer
原文地址:http://www.cnblogs.com/fangpengchengbupter/p/7569141.html