RNN 首先思考这样一个问题:在处理序列学习问题时,为什么不使用标准的神经网络(建立多个隐藏层得到最终的输出)解决,而是提出了RNN这一新概念? 标准神经网络如下图所示: 标准神经网络在解决序列问题时,存在两个问题: 难以解决每个训练样例子输入输出长度不同的情况,因为序列的长度代表着输入层、输出层的 ...
分类:
其他好文 时间:
2018-02-17 15:34:14
阅读次数:
602
介绍CNN中的经典网络,LeNet-5,AlexNet,VGG。介绍残差网络,并阐述对残差块的理解。 ...
分类:
其他好文 时间:
2018-02-11 16:14:25
阅读次数:
281
仍旧不完全统计,边学边加 理论: Normalization Regularization 数据预处理 Normalization归一化 针对数据;Regularization正则化 针对代价函数 对internal covariate shift的解释 caffe: 模型描述中的各参数含义 sol ...
分类:
其他好文 时间:
2018-02-02 17:08:19
阅读次数:
139
一、目标定位 这一小节视频主要介绍了我们在实现目标定位时标签该如何定义。 上图左下角给出了损失函数的计算公式(这里使用的是平方差) 如图示,加入我们需要定位出图像中是否有pedestrian,car,motorcycles。注意在这里我们假设图像中只肯呢个存在这三者中的一种或者都不存在,所以共有四种 ...
分类:
其他好文 时间:
2018-01-17 20:59:35
阅读次数:
185
一、为什么要进行实例探究? 通过他人的实例可以更好的理解如何构建卷积神经网络,本周课程主要会介绍如下网络 LeNet 5 AlexNet VGG ResNet (有152层) Inception 二、经典网络 1.LeNet 5 该网络主要针对灰度图像训练的,用于识别手写数字。 该网络是在1980s ...
分类:
其他好文 时间:
2018-01-14 12:05:16
阅读次数:
267
一、计算机视觉 如图示,之前课程中介绍的都是64 64 3的图像,而一旦图像质量增加,例如变成1000 1000 3的时候那么此时的神经网络的计算量会巨大,显然这不现实。所以需要引入其他的方法来解决这个问题。 二、边缘检测示例 边缘检测可以是垂直边缘检测,也可以是水平边缘检测,如上图所示。 至于算法 ...
分类:
其他好文 时间:
2018-01-01 13:36:40
阅读次数:
154
知乎上的讨论:https://www.zhihu.com/question/43609045?sort=created 不过看的云里雾里,越看越糊涂。 直到看到了这个:http://deeplearning.net/software/theano_versions/dev/tutorial/conv ...
分类:
其他好文 时间:
2017-12-10 13:12:16
阅读次数:
147
2017-12-08 13:48:22 在深度学习 处理大数据时,采用常用的 for 循环无法及时有效地处理,因此采用 矢量化的方法来处理矩阵运算。 以 Python 的 numpy 库来对比 10^6 (百万)数量级 传统的 for circulate (for 循环 ) 与 矢量化 处理 的对比 ...
分类:
其他好文 时间:
2017-12-08 16:48:02
阅读次数:
165
参考《deeplearning.ai 卷积神经网络 Week 2 听课笔记》。 1. AlexNet(Krizhevsky et al. 2012),8层网络。 学会计算每一层的输出的shape:对于卷积层,输出的边长 =(输入的边长 - filter的边长)/ 步长 + 1,输出的通道数等于fil ...
分类:
编程语言 时间:
2017-12-07 00:31:11
阅读次数:
238
本周课程的主题是两大应用:人脸检测和风格迁移。 1. Face verification vs. face recognition Verification: 一对一的问题。 1) 输入:image, name/ID. 2) 输出:image是否对应这个name/ID。 Recognition: 一 ...
分类:
其他好文 时间:
2017-12-02 16:19:06
阅读次数:
173