注:代价函数(有的地方也叫损失函数,Loss Function)在机器学习中的每一种算法中都很重要,因为训练模型的过程就是优化代价函数的过程,代价函数对每个参数的偏导数就是梯度下降中提到的梯度,防止过拟合时添加的正则化项也是加在代价函数后面的。在学习相关算法的过程中,对代价函数的理解也在不断的加深, ...
分类:
其他好文 时间:
2017-04-01 20:23:03
阅读次数:
396
[root@va3zabbix_agentd.d]#catpingyz.conf
UserParameter=ping.time[*],bash/etc/zabbix/shell/pingyztime.sh$1
UserParameter=ping.loss[*],bash/etc/zabbix/shell/pingyzloss.sh$1
[root@va3zabbix_agentd.d]#cat../shell/
cut-log.shiosstatus.shnginx_status.shping2.shpi..
分类:
其他好文 时间:
2017-03-28 22:16:57
阅读次数:
236
regression与线性回归(linear regression) 线性回归(linear regression): 有监督学习 => 学习样本为D={(xi,yi)}ª 输出/预测的结果yi为连续值变量 需要学习映射f:x~y 假定输入x和输出y之间有线性相关关系 损失函数(loss funct ...
分类:
其他好文 时间:
2017-03-22 20:59:56
阅读次数:
196
0: 原则上,loss函数都应该选convex函数,convex函数的定义就是函数上方得点是一个convex集合 1: 之前使用的0-1的数据预测正负样本,loss函数选用的是cross entropy loss, 实际上这里的0-1 cross entropy和seq2seq的softmax cr ...
分类:
其他好文 时间:
2017-03-16 22:03:47
阅读次数:
1301
2016/10/6 1: 用自定义的weighted loss来看, 10000个batch仍然没有收敛; 2:仍然使用sigmoid cross entropy loss, 7 epoches 左右仍然收敛,对于7w数据; 3:改动loss, 避免nan loss的出现; 2016/12/6 1: ...
分类:
其他好文 时间:
2017-03-16 21:35:00
阅读次数:
435
介绍
hinge loss
code1 介绍本文将介绍hinge loss E(w)E(w)以及其梯度?E(w)\nabla E(w)。并利用批量梯度下降方法来优化hinge loss实现SVM多分类...
分类:
其他好文 时间:
2017-03-15 10:36:54
阅读次数:
1178
get_start_time()函数在获取时间时候获取失败,因为if line.find('Solving') != -1:这个语句判断错误导致,具体解决办法: 将该函数改造成: def get_start_time(line_iterable, year): """Find start time ...
分类:
其他好文 时间:
2017-03-14 17:39:27
阅读次数:
1338
Svm相关: 1) SVM方法是通过一个非线性映射p,把样本空间映射到一个高维乃至无穷维的特征空间中(Hilbert空间),使得在原来的样本空间中非线性可分的问题转化为在特征空间中的线性可分的问题. 2) 逻辑回归和SVM的区别在于逻辑回归采用的是logistical loss,svm采用的是hin ...
分类:
其他好文 时间:
2017-03-12 12:51:05
阅读次数:
198
caffe 进行自己的imageNet训练分类: caffe 进行自己的imageNet训练分类: loss一直是87.3365,accuracy 一直是0,可能的原因是: 解决方法: http://blog.csdn.net/jkfdqjjy/article/details/52268565?lo ...
分类:
Web程序 时间:
2017-03-09 14:30:11
阅读次数:
3603
我这20MB的网速都下不下来,我觉得你还是放弃这个模型训练吧,谈费劲,看看得了,我就直接机翻粘过来得了,懒得校对了。 Alex的CIFAR-10教程,Caffe风格 Alex Krizhevsky的cuda-convnet详细介绍了模型定义,参数和培训程序,以便在CIFAR-10上获得良好的性能。这 ...
分类:
其他好文 时间:
2017-03-03 11:50:06
阅读次数:
390