码迷,mamicode.com
首页 >  
搜索关键字:超参数    ( 130个结果
Deep Learning 22:总结一些deep learning的基本知识
1.交叉熵代价函数 2.正则化方法:L1和L2 regularization、数据集扩增、dropout 3. 数据预处理 4.机器学习算法中如何选取超参数:学习速率、正则项系数、minibatch size 5.随机梯度下降(Stochastic gradient descent)和 批量梯度下降 ...
分类:其他好文   时间:2016-08-22 21:41:51    阅读次数:155
Deep Learning(深度学习)之(九)词向量的内部任务评价和外部任务评价方法
关键词:内部任务评价(Intrinsic Evaluation)和 外部任务评价(extrinsic evaluations)。超参数影响下的类比评价任务。人类决策和词向量距离的相关性。结合上下文处理歧义。窗口分类。 这个课堂笔记我们将会对词向量(也就是词嵌入)的内部任务评价和外部任务评价方法进行讨论。主要的内容是单词类比(word analogies)技术,我们会把它当做内部任务评价的技术...
分类:其他好文   时间:2016-06-24 16:03:15    阅读次数:878
工作流程与模型调优
七月在线4月机器学习算法班课程笔记——No.7 前言  我们知道,机器学习的过程是非常繁琐的。上一篇介绍了机器学习中特征处理重要而耗时,然而特征处理仅属于机器学习前序的工作内容。特征工程之后,需要选择机器学习模型、交叉验证、寻找最佳超参数等建模步骤。搭建模型之后呢,还需要进行模型的优化,模型调优是实际生产中一个必要的环节,也是不断去改进的一个事情。   这一篇会以小的数据集为例,讲一下机器学习在实...
分类:其他好文   时间:2016-06-16 14:49:03    阅读次数:173
CS231n 卷积神经网络与计算机视觉 7 神经网络训练技巧汇总 梯度检验 参数更新 超参数优化 模型融合 等
前面几章已经介绍了神经网络的结构、数据初始化、激活函数、损失函数等问题,现在我们该讨论如何让神经网络模型进行学习了。1 梯度检验权重的更新梯度是否正确决定着函数是否想着正确的方向迭代,在UFLDL中我们提到过,计算时梯度公式如果计算错误是不容被察觉的,我们需要比较分析法得到梯度与数值法得到的梯度是否相似,下面是一些技巧:1.1 centered formula高等数学中我们知道导数的近似公式: d...
分类:其他好文   时间:2016-05-30 15:16:30    阅读次数:354
Science发表的超赞聚类算法
作者(Alex Rodriguez, Alessandro Laio)提出了一种很简洁优美的聚类算法, 可以识别各种形状的类簇, 并且其超参数很容易确定. 算法思想 该算法的假设是类簇的中心由一些局部密度比较低的点围绕, 并且这些点距离其他有高局部密度的点的距离都比较大. 首先定义两个值: 局部密度 ...
分类:编程语言   时间:2016-05-07 16:39:05    阅读次数:219
machine learning in coding(python):使用交叉验证【选择模型超参数】
# Hyperparameter selection loop score_hist = [] Cvals = [0.001, 0.003, 0.006, 0.01, 0.02, 0.03, 0.04, 0.05, 0.06, 0.1] for C in Cvals: model.C = C score = cv_loop(Xt, y, model, N) score_hi...
分类:编程语言   时间:2015-08-11 21:28:54    阅读次数:188
机器学习算法中如何选取超参数:学习速率、正则项系数、minibatch size
机器学习算法中如何选取超参数:学习速率、正则项系数、minibatch size本文是《Neural networks and deep learning》概览中第三章的一部分,讲机器学习算法中,如何选取初始的超参数的值。(本文会不断补充)学习速率(learning rate,η)运用梯度下降算法进...
分类:编程语言   时间:2015-05-19 22:23:04    阅读次数:167
机器学习算法中如何选取超参数:学习速率、正则项系数、minibatch size
本文是《Neural networks and deep learning》概览 中第三章的一部分,讲机器学习算法中,如何选取初始的超参数的值。(本文会不断补充)学习速率(learning rate,η)运用梯度下降算法进行优化时,权重的更新规则中,在梯度项前会乘以一个系数,这个系数就叫学习速率η。下面讨论在训练时选取η的策略。 固定的学习速率。如果学习速率太小,则会使收敛过慢,如果学习速率太大,则...
分类:编程语言   时间:2015-03-15 00:52:06    阅读次数:1015
jrae源码解析(二)
本文细述上文引出的RAECost和SoftmaxCost两个类。SoftmaxCost我们已经知道,SoftmaxCost类在给定features和label的情况下(超参数给定),衡量给定权重($hidden\times catSize$)的误差值$cost$,并指出当前的权重梯度。看代码。@Ov...
分类:其他好文   时间:2014-11-20 18:15:16    阅读次数:226
Science上发表的超赞聚类算法(转)
作者(Alex Rodriguez, Alessandro Laio)提出了一种很简洁优美的聚类算法, 可以识别各种形状的类簇, 并且其超参数很容易确定. 算法思想 该算法的假设是类簇的中心由一些局部密度比较低的点围绕, 并且这些点距离其他有高局部密度的点的距离都比较大. 首先定义两个值: 局部密度...
分类:其他好文   时间:2014-08-28 19:33:05    阅读次数:301
130条   上一页 1 ... 11 12 13
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!