参考:https://stackoverflow.com/questions/45384185/what-is-the-difference-between-linearsvc-and-svckernel-linear 1、LinearSVC使用的是平方hinge loss,SVC使用的是绝对值hi ...
分类:
其他好文 时间:
2017-10-30 21:55:57
阅读次数:
461
讨论课提纲: 自我介绍 简单说一下回归的主要问题,给定数据集,找出输入和输出之间的关系,对于一个新的输入可以预测其输出 我们将从两个角度来讨论这个问题,一个是传统的频率学派,利用极大似然估计进行分析,首先利用极大似然估计估计参数,并找出其与最小二乘法之间的联系,然后从几何角度理解最小二乘法。因为样本 ...
分类:
其他好文 时间:
2017-10-29 11:21:34
阅读次数:
197
这节课主要是讲了些基本的numpy,scipy和线性的分类器(图像上面,比如knn),还讲了下一些损失函数 一:numpy,scipy和线性的分类器(图像上面,比如knn)主要讲代码 二:损失函数:主要是两大类 cost function、loss function、 objective(客观度) ...
分类:
其他好文 时间:
2017-10-22 21:20:33
阅读次数:
209
http://www.jianshu.com/p/75f7e60dae95 作者:陈迪豪 来源:CSDNhttp://dataunion.org/26447.html 交叉熵介绍 交叉熵(Cross Entropy)是Loss函数的一种(也称为损失函数或代价函数),用于描述模型预测值与真实值的差距大 ...
分类:
编程语言 时间:
2017-10-20 18:43:50
阅读次数:
192
http://freemind.pluskid.org/machine-learning/softmax-vs-softmax-loss-numerical-stability/ ...
分类:
其他好文 时间:
2017-10-20 16:00:57
阅读次数:
165
1、交叉验证 交叉验证(Cross validation),交叉验证用于防止模型过于复杂而引起的过拟合.有时亦称循环估计, 是一种统计学上将数据样本切割成较小子集的实用方法。 于是可以先在一个子集上做分析, 而其它子集则用来做后续对此分析的确认及验证。 一开始的子集被称为训练集。而其它的子集则被称为 ...
分类:
其他好文 时间:
2017-10-18 00:21:54
阅读次数:
142
1. Loss function是用来量化评估当前预测的好坏,loss function越小表明预测越好。 几种典型的loss function: 1)Multiclass SVM loss:一般的SVM是针对0、1两类标签,现在是把它拓展到n类标签。它的物理意义是:现在要预测一个样本的标签,根据之 ...
分类:
编程语言 时间:
2017-10-14 23:26:47
阅读次数:
217
如果你曾经做过做过深度学习的模型,并试图将他在本机上训练一下,因为你觉得你的笔记本性能还可以,于是你开始train你的模型,首先你看到loss下降很慢,每个batch需要花费8.4秒左右的样子: 然后你的CPU开始狂转,风扇全功率运行,风声大作,坚持了几分钟实在受不了了,你果断的关闭了进程,不仅仅是... ...
分类:
其他好文 时间:
2017-10-10 16:53:54
阅读次数:
235
少参数50000/50000 [ ] - 75s - loss: 2.0726 - acc: 0.2503 - val_loss: 2.3972 - val_acc: 0.2151多参数50000/50000 [ ] - 154s - loss: 1.8582 - acc: 0.3299 - val ...
分类:
其他好文 时间:
2017-10-09 15:29:42
阅读次数:
162
tensorboard可以将训练过程中的一些参数可视化,比如我们最关注的loss值和accuracy值,简单来说就是把这些值的变化记录在日志里,然后将日志里的这些数据可视化。 首先运行训练代码 注意我将训练日志保存在 /home/xxx/logs/ 路径下,打开终端,输入以下命令 tensorboa ...
分类:
其他好文 时间:
2017-10-09 15:27:10
阅读次数:
360