梯度下降:值越大,函数变化越快。
激活函数:Relu函数是一个单调递增函数,用来解决线形问题。
ReLu(Rectified Linear Units)激活函数
池化和全连接:
tensorflow 1.0 学习:池化层(pooling)和全连接层(dense)
SoftMax:解决多分类问题
均差:数据是否平均分布
方差:数据是否聚合
卷积神经网络:
标签:神经网络 http 全连接 index.php max title lin soft 一个
梯度下降:值越大,函数变化越快。
激活函数:Relu函数是一个单调递增函数,用来解决线形问题。
ReLu(Rectified Linear Units)激活函数
池化和全连接:
tensorflow 1.0 学习:池化层(pooling)和全连接层(dense)
SoftMax:解决多分类问题
均差:数据是否平均分布
方差:数据是否聚合
卷积神经网络:
标签:神经网络 http 全连接 index.php max title lin soft 一个
原文地址:https://www.cnblogs.com/bincoding/p/8178911.html