2019年4月1日21:32:02 今天阅读了Charu C . Aggarwal 著作《推荐系统-原理与实践》,主要内容包括 矩阵分解 1、无约束矩阵分解 a) ,满足U和V上无约束 b) 预测矩阵R的(i,j)位置的值 c) d) 梯度求导需要对同时求导 2、随机梯度下降 a) 对矩阵中是数据进 ...
分类:
其他好文 时间:
2019-04-02 10:30:29
阅读次数:
311
BinaryNet:通过权重和激活约束为+1或 1训练深度神经网络 [TOC] 摘要 ? 我们提出了BinaryNet,它是一种当计算参数的梯度时,可以用二进化权重和激活值训练DNN的方法。我们证明了可以用BinaryNet在MNIST上训练多层感知器,也可以在CIFAR 10和SNHN的训练Con ...
分类:
Web程序 时间:
2019-03-31 19:22:20
阅读次数:
234
图像的梯度问题: https://wenku.baidu.com/view/958ab556f02d2af90242a8956bec0975f465a49c.html https://blog.csdn.net/image_seg/article/details/78790968 常见的图像梯度计算 ...
分类:
其他好文 时间:
2019-03-30 13:35:16
阅读次数:
136
<深度学习基础> 卷积神经网络,循环神经网络,LSTM与GRU,梯度消失与梯度爆炸,激活函数,防止过拟合的方法,dropout,batch normalization,各类经典的网络结构,各类优化方法 1、卷积神经网络工作原理的直观解释 https://www.zhihu.com/question/ ...
分类:
编程语言 时间:
2019-03-25 17:45:58
阅读次数:
188
<数学题/智力题> 1、如果一个女生说,她集齐了十二个星座的前男友,我们应该如何估计她前男友的数量? https://blog.csdn.net/FnqTyr45/article/details/80248927 2、如何理解矩阵的秩? https://www.zhihu.com/question/ ...
分类:
编程语言 时间:
2019-03-25 17:45:13
阅读次数:
163
深度学习模型中的Normalization,数据经过归一化和标准化后可以加快梯度下降的求解速度,这就是Batch Normalization等技术非常流行的原因,Batch Normalization使得可以使用更大的学习率更稳定地进行梯度传播,甚至增加网络的泛化能力。 ...
分类:
其他好文 时间:
2019-03-23 22:19:53
阅读次数:
1164
resnet 又叫深度残差网络 据说是目前世界上图像识别准确率最高的,主要作者是国人哦 深度网络的退化问题 深度网络难以训练,梯度消失,梯度爆炸,老生常谈,不多说 resnet 解决了这个问题,并且将网络深度扩展到了最多152层。怎么解决的呢? 残差学习 结构如图 在普通的卷积过程中加入了一个x的恒 ...
分类:
Web程序 时间:
2019-03-22 14:10:54
阅读次数:
2012
分享专属链接,老师可以获得最大收益并且还可获得广告位等奖励!全民充电节(2019年3月20日-3月26日)期间,讲师可大力度推广自己的专属链接啦~届时,我们对活动期间专属链接成交额高的讲师,将给与活动奖励~~我们的奖励:学院讲师荣誉积分(积分跟分成紧密的联系在一起)学院首页PC/移动端端轮播图广告位学员公告处文字链广告位视频播放页下方的文字链奖励梯度新锐讲师自营销奖励若您入驻学院时间为:6个月内(
分类:
其他好文 时间:
2019-03-20 14:35:06
阅读次数:
165
1、如果不想用actave:1>,可以使用SP1('>> ')可以改变红色输出以>>表示 2、利用Octave绘制直方图: 5、添加路径 addpath('')搜索函数时即便不在当前目录,添加其他路径后,会搜索其路径。 6、可视化矩阵命令imagesc(),在用colorbar显示不同颜色的梯度,c ...
分类:
其他好文 时间:
2019-03-17 22:59:28
阅读次数:
686
一般线性回归函数的假设函数为: 对应的损失函数为: (这里的1/2是为了后面求导计算方便)下图作为一个二维参数(,)组对应能量函数的可视化图: 下面我们来比较三种梯度下降法 批量梯度下降法BGD (Batch Gradient Descent) 我们的目的是要误差函数尽可能的小,即求解weights ...
分类:
其他好文 时间:
2019-03-17 14:11:58
阅读次数:
237