标签:长度 要求 sha 左右移动 dict 一个 位移 变化 其他
卷积神经网络大总结(个人理解)
神经网络
1、概念:从功能他们模仿真实数据
2、结构:输入层、隐藏层、输出层。其中隐藏层要有的参数:权重、偏置、激励函数、过拟合
3、功能:能通过模仿,从而学到事件
其中过拟合:电脑太过于自信,想把所有的数据都模拟下来。但是这并不符合我们的实际的需求
激励函数:激活某一些参数
卷积神经网络:
1、一般的结构:输入数据、卷积层、池化层、卷积层、池化层、全连接层、全连接层、误差分析、参数优化、显示精确度
2、每一个层的要求:
输入数据:类型:[-1(表示能接受任意张图片),图片的长度,图片的宽度、图片的灰度级]
卷积层 :fittler滤波器:意义:扫描图片,得到一个数值。类型:[卷积核的长度,卷积核的宽度,图片的灰度值,特征映射值(厚度)]其中的1,1是给定。卷积函数:输入数据、滤波器、步长(类型[1,图片左右移动的步数,图片上下移动的步数,1],padding=”扫描的方式”
卷积得到的数据,可以用tf.nn.Rule的激励函数激励
池化层:池化函数的参数:卷积层1激励后的数据,池化窗口的大小(shape[1,长,宽,1],步长(shape[1,向左右移动的步数,上下移动的步数,1],padding=“扫描的方式”
卷积层2:参数个数一样,但是输入的数据是池化1输出的数据,卷积核我们也可以定义,其他的都一样
池化层:变化最大的是输入的数据数卷积层2输出的数据
全连接神经元:输入的数据是池化2输出的数据,要记得重新设定类型。隐藏层:权重,偏置。。。隐藏层输出的数据可以过拟合和tf.nn.relu激励函数
全连接神经元2:类似全连接神经元。但是这一层的输出数据要用到tf.nn.softmax激励函数
误差分析、优化:cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_data * tf.log(prediction),
reduction_indices=[1]))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)交叉商
计算精确值函数
其他:
1、其中每一层的卷积层和池化层都是讲特征映射的更加详细,具体有用
2、池化层在实际应用中用来抵抗输入的轻微形变或者位移
3、全连通层的工作原理是根据之前其它层的输出,检测哪些特征与特定的 类别相匹
标签:长度 要求 sha 左右移动 dict 一个 位移 变化 其他
原文地址:https://www.cnblogs.com/MyUniverse/p/9445397.html