经典卷积神经网络 "1.LeNet" "2.AlexNet" "3.VGG" "4.NiN" "5.GoogleNet" 1.LeNet 卷积层块里的基本单位是卷积层后接平均池化层:卷积层用来识别图像里的空间模式,如线条和物体局部,之后的平均池化层则用来降低卷积层对位置的敏感性。卷积层块由两个这样的 ...
分类:
其他好文 时间:
2020-02-20 00:15:58
阅读次数:
118
什么是激活函数? 激活函数(Activation functions)对于人工神经网络 [1] 模型去学习、理解非常复杂和非线性的函数来说具有十分重要的作用。它们将非线性特性引入到我们的网络中。如图1,在神经元中,输入的 inputs 通过加权,求和后,还被作用了一个函数,这个函数就是激活函数。引入 ...
分类:
其他好文 时间:
2020-02-17 12:49:27
阅读次数:
97
摘要: Dropout正则化是最简单的神经网络正则化方法。阅读完本文,你就学会了在Keras框架中,如何将深度学习神经网络Dropout正则化添加到深度学习神经网络模型里。 Dropout正则化是最简单的神经网络正则化方法。其原理非常简单粗暴:任意丢弃神经网络层中的输入,该层可以是数据样本中的输入变 ...
分类:
其他好文 时间:
2020-02-15 11:48:38
阅读次数:
119
基本内容 1、 实现一个网络模型,需要继承torch.nn.Module类,初始化模型参数,并实现forward()函数 2、torch.nn.functional 提供一些如损失函数等不需要学习参数的功能函数 3、torch.nn.Sequential() 模块简化简单模型的定义 4、损失函数to ...
分类:
其他好文 时间:
2020-02-14 14:26:16
阅读次数:
95
损失函数 为了学习神经网络中的参数,我们要为神经网络模型定义损失函数。回想一下,逻辑回归可以将数据分成正例和负例两类,因此它的损失函数为: $$ J(\theta) = \frac{1}{n}\sum_{i=1}^n \left[y^{(i)}\log(h_\theta(x^{(i)}) ) + ( ...
分类:
其他好文 时间:
2020-02-06 23:28:35
阅读次数:
87
一、神经网络: 1.1非线性假设: 无论是线性回归还是逻辑回归都有这样一个缺点,即: 当特征太多时,计算的负荷会非常大 。 使用非线性的多项式项,能够帮助我们建立更好的分类模型 ,但与此同时他们的特征组合就有很多。普通的线性模型无法处理,就需要神经网络。 1.2模型表示1 每一个神经元都可以被认为是 ...
分类:
其他好文 时间:
2020-02-03 14:10:32
阅读次数:
93
模型架构 神经网络背后的逻辑斯蒂回归模型 公式推导 Forward $a = \begin{bmatrix} a_1 \\ a_2 \\a_3 \\\end{bmatrix} = \begin{bmatrix} g(V_1 ^T x + b_{11}) \\ g(V_2 ^T x + b_{12}) ...
分类:
其他好文 时间:
2020-02-03 09:29:40
阅读次数:
68
[TOC] An easy way 使用 来更快地构建神经网络: Save and reload 两种保存网络模型的方法: 读取模型: 只读取模型参数: Train on batch 通过 中的 参数来控制加载数据时的batch大小 打印结果: Optimizers 比较不同的优化方法对网络的影响: ...
分类:
其他好文 时间:
2020-01-30 21:16:11
阅读次数:
87
为什么要用神经网络? 为了获得非线性假设空间,我们引入神经网络模型。之前文章提到,对于分类问题,对数几率回归结合多项式特征可以得到非线性决策边界;而将多项式特则与线性回归结合也可以拟合非线性函数。既然我们已经可以得到非线性假设空间,为什么还要引入神经网络模型呢?这是因为当数据集特征数$d$增大时,高 ...
分类:
其他好文 时间:
2020-01-28 17:43:20
阅读次数:
61
在《手写数字识别——手动搭建全连接层》一文中,我们通过机器学习的基本公式构建出了一个网络模型,其实现过程毫无疑问是过于复杂了——不得不考虑诸如数据类型匹配、梯度计算、准确度的统计等问题,但是这样的实践对机器学习的理解是大有裨益的。在大多数情况下,我们还是希望能多简单就多简单地去搭建网络模型,这同时也 ...