一、模型概念 逻辑回归将线性函数复合于逻辑斯蒂函数中,用其取值估计分类概率,从而在空间形成超平面对样本点进行分类。 Logistic回归实质:发生概率除以没有发生概率再取对数。就是这个不太繁琐的变换改变了取值区间的矛盾和因变量自变量间的曲线关系。究其原因,是发生和未发生的概率成为了比值 ,这个比值就 ...
分类:
其他好文 时间:
2018-04-09 14:54:22
阅读次数:
240
fine-tuning:把已经训练过的模型应用到新的数据集上,相当于继续训练 例子: fine-tuning: 先拿CNN在cifar100上训练,然后仅仅修改最后一层softmax的输出节点个数(100改为10),再放到cifar10上训练。 训练过程: 第一步,fine-tuning训练过程: ...
分类:
其他好文 时间:
2017-07-24 23:31:23
阅读次数:
178
1. R-CNN:Rich feature hierarchies for accurate object detection and semantic segmentation 技术路线:selective search + CNN + SVMs Step1:候选框提取(selective sea ...
分类:
Web程序 时间:
2017-05-31 16:42:30
阅读次数:
295
课时26 图像分割与注意力模型(上) 语义分割:我们有输入图像和固定的几个图像分类,任务是我们想要输入一个图像,然后我们要标记每个像素所属的标签为固定数据类中的一个 使用卷积神经,网络为每个小区块进行分类,对在区块的中间打上标签,对图像的全部区块分类完毕,我们就可以得到每个像素所对应的标签,这个操作 ...
分类:
其他好文 时间:
2017-04-30 22:57:42
阅读次数:
257
1、测量误差与测量结果的不确定度 ①测量误差的定义 首先,需要明确测量误差的定义。当我们进行测量时,由于理论的近似性、实验仪器的局限性等,测量结果总不可能绝对准确。待测物理量的真值同我们的测量值之间总会存在某种差异。我们将测量误差定义为 测量误差=测量值-真值 ②测量误差的分类 其次,按照习惯的分类 ...
分类:
其他好文 时间:
2017-03-14 23:53:24
阅读次数:
285
二、本周研究内容。 1、 贝叶斯算法的基本概念和原理: 朴素贝叶斯的思想基础是这样的:对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。 朴素贝叶斯分类的正式定义如下: 1、设为一个待分类项,而每个a为x的一个特征属性。 2、有类别集合。 3、计算 ...
分类:
其他好文 时间:
2017-03-07 22:56:18
阅读次数:
269
利用近邻方法,很难量化分类的置信度。而基于概率的分类方法--贝叶斯方法,不仅可以分类,还可以给出分类概率。近邻方法别称为惰性学习方法(lazy learner),当给出数据时,这些分类器只是将他们保存或者记录下来,每次对实例进行训练时,这些分类器都会遍历整个数据集,所以分类器的速度往往跟不上,贝叶斯 ...
分类:
其他好文 时间:
2016-11-16 19:32:44
阅读次数:
318
svm_predict_probability函数需要在train之前设置parameter参数才能得到概率模型。当svm_parameter.probability=1,或者options中的-b参数设置为1时。structsvm_parameter { intsvm_type; intkernel_type; intdegree; /*forpoly*/ doublegamma; /*forpoly/rbf/sigmoid*/ d..
分类:
其他好文 时间:
2014-10-06 16:12:01
阅读次数:
7181