Logistic回归可以也可以用于多分类的,但是二分类的更为常用也更容易解释。所以实际中最常用的就是二分类的Logistic回归。LR分类器适用数据类型:数值型和标称型数据。其优点是计算代价不高,易于理解和实现;其缺点是容易欠拟合,分类精度可能不高。本文描述LR分类器原理并通过Python实现了该算法。...
分类:
编程语言 时间:
2014-12-09 14:05:48
阅读次数:
399
NG的课件1,引出常用的优化方法梯度下降法(gradient descent) 对于 ordinary least squares regression, cost function为 求最小值,意味着求导数为0的位置 考虑只有一个样本 这叫做LMS update rule (Least Mean ...
分类:
其他好文 时间:
2014-12-09 08:11:49
阅读次数:
330
Cox比例风险回归模型(Cox’s proportional hazards regression model),简称Cox回归模型。该模型由英国统计学家D.R.Cox于1972年提出,主要用于肿瘤和其它慢性病的预后分析,也可用于队列研究的病因探索。h(t/X)=h0(t) exp (β1 X1 + β2 X2 + …… + βp Xp )h0(t): 基准风险函数 即所有变量取零时的t时刻的风险...
分类:
其他好文 时间:
2014-12-08 10:50:43
阅读次数:
165
3166: [Heoi2013]AloTime Limit: 20 SecMemory Limit: 256 MBSubmit: 394Solved: 204[Submit][Status]DescriptionWelcome to ALO ( Arithmetic and Logistic Onl...
分类:
其他好文 时间:
2014-12-05 12:18:10
阅读次数:
156
1、首先下载安装weka http://www.cs.waikato.ac.nz/ml/weka/downloading.html2、打开weka,选择第一项Explorer 3、准备数据集文件,在weka中,一般数据文件为:xxx.arff,比如我编辑一个文件叫做tumor.arff,文件的内容....
分类:
其他好文 时间:
2014-12-03 14:07:43
阅读次数:
510
Hough Forest目标检测一种比较时兴的目标检测算法,Juergen Gall在2009的CVPR上提出。 Hough Forest听上去像hough变换+Random Forest的结合体,其实,不完全是这样的。它更像是decision forest和regression forest的结合...
分类:
编程语言 时间:
2014-12-02 15:03:17
阅读次数:
232
转载自http://leftnoteasy.cnblogs.com机器学习中的数学系列:1)回归(regression)、梯度下降(gradient descent)2)线性回归,偏差、方差权衡3)模型组合(Model Combining)之Boosting与Gradient Boosting4)线...
分类:
其他好文 时间:
2014-11-28 18:13:25
阅读次数:
181
Logistic回归的使用和缺失值的处理从疝气病预测病马的死亡率数据集:UCI上的数据,368个样本,28个特征测试方法:交叉测试实现细节:1.数据中因为存在缺失值所以要进行预处理,这点待会再单独谈2.数据中本来有三个标签,这里为了简单直接将未能存活和安乐死合并了3.代码中计算10次求均值缺失值的处...
分类:
其他好文 时间:
2014-11-25 01:39:42
阅读次数:
245
Logistic回归算法优缺点:1.计算代价不高,易于理解和实现2.容易欠拟合,分类精度可能不高3.适用数据类型:数值型和标称型算法思想:其实就我的理解来说,logistic回归实际上就是加了个sigmoid函数的线性回归,这个sigmoid函数的好处就在于,将结果归到了0到1这个区间里面了,并且s...
分类:
编程语言 时间:
2014-11-24 00:49:02
阅读次数:
575
今天来讨论多元函数求极值问题,在Logistic回归用牛顿迭代法求参数会提到这个,所以很有必要把它研究清楚。
回想一下,一元函数求极值问题中我们是怎样做的?比如对于凹函数,先求一阶导数,得到,
由于极值处导数一定为零,但是导数等于零的点不一定就有极值,比如。所以我们还需要进一步判断,对
函数继续求二阶导得到,现在因为在驻点处二阶导数成立,所以
在处取得极小值,二阶导数在这里的意义就是...
分类:
其他好文 时间:
2014-11-23 20:19:23
阅读次数:
279