来源 数据库:http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=jsjyjyfz201309002 术语深度学习(deep learning, DL)深度神经网络(deep neural networks, DNN)浅层学习 ...
分类:
其他好文 时间:
2018-05-19 18:25:39
阅读次数:
197
1、计算机视觉 神经网络在计算机视觉方面有很广泛的应用, 包括图像分类、物体检测、图像风格转换和融合,但是当图片的尺寸比较大时,参数的数量就会增多,传统的全连接神经网络就会很复杂,一方面无法找到足够的数据训练,另一方面也容易引起过拟合,因此我们引入卷积神经网络 ...
分类:
其他好文 时间:
2018-05-19 13:10:25
阅读次数:
176
边界填充(padding):卷积过程中,越靠近图片中间位置的像素点越容易被卷积计算多次,越靠近边缘的像素点被卷积计算的次数越少,填充就是为了使原来边缘像素点的位置变得相对靠近中部,而我们又不想让填充的数据影响到我们的计算结果,故填充值选择均用0来填充。 池化层不需要参数、只是对特征图进行压缩操作,以 ...
分类:
其他好文 时间:
2018-05-16 15:25:15
阅读次数:
147
Xception(Deep Learning with Depth-wise Separable convolutions)——google Inception-V3 Xception 并不是真正意义上的轻量化模型,只是其借鉴 depth-wise convolution,而 depth-wise ...
分类:
其他好文 时间:
2018-05-15 22:34:13
阅读次数:
582
基本概念理解: 一个epoch:当前所有数据都跑(迭代)了一遍; 那么两个epoch,就是把所有数据跑了两遍,三个epoch就是把所有数据跑了三遍,以此类推。 batch_size:每次迭代多少个数据;(batch_size称作批处理, 它的作用可以理解为每次训练100个数据(在这里假设将其设置为1 ...
分类:
其他好文 时间:
2018-05-14 13:15:28
阅读次数:
194
深度学习可以简单理解为NN的发展,二三十年前,NN曾经是ML领域非常火热的一个方向,后来慢慢淡出,原因主要有: 容易过拟合,参数比较难调,并且需要不少trick(经验)。 训练速度满,在层次比较少(≤3)的情况下效果并不比其他方法更优。 神经元如下图: ANN如下图: 深度神经网络的特点:hidde ...
分类:
其他好文 时间:
2018-05-11 20:15:53
阅读次数:
191
Image understanding with deep convolutional networks 直到2012年ImageNet大赛之前,卷积神经网络一直被主流机器视觉和机器学习社区所遗弃。2012年ImageNet大赛上卷积神经网络用来识别1000种分类的近100万张图片,错误率比之前大赛 ...
分类:
其他好文 时间:
2018-05-10 17:34:51
阅读次数:
201
之前在看Andrew Ng 的deep learning 视频教程,在RNN 这一节的课后作业里,实现了一个基于 "deepjazz" 的music generator,实验之后发现产生的结果还有模有样的,这激发了我的兴趣,于是我就查阅了一些资料,看看音乐的自动生 ...
分类:
其他好文 时间:
2018-05-08 19:21:48
阅读次数:
781
?机器学习——逻辑回归 ALS音乐推荐(上) Deep Learning(深度学习)学习笔记之系列(一) 深度学习(Deep Learning)资料大全(不断更新) SparkSQL—用之惜之 Spark系列1:开篇之组件云集 HDFS架构及原理 大数据家族成员概述 ...
分类:
其他好文 时间:
2018-05-06 14:46:31
阅读次数:
165