使用theano编写Logistic Regression程序,进行二分类,初学者可以参考。...
分类:
其他好文 时间:
2014-12-13 10:56:30
阅读次数:
292
NG的课件1,引出常用的优化方法梯度下降法(gradient descent) 对于 ordinary least squares regression, cost function为 求最小值,意味着求导数为0的位置 考虑只有一个样本 这叫做LMS update rule (Least Mean ...
分类:
其他好文 时间:
2014-12-09 08:11:49
阅读次数:
330
Cox比例风险回归模型(Cox’s proportional hazards regression model),简称Cox回归模型。该模型由英国统计学家D.R.Cox于1972年提出,主要用于肿瘤和其它慢性病的预后分析,也可用于队列研究的病因探索。h(t/X)=h0(t) exp (β1 X1 + β2 X2 + …… + βp Xp )h0(t): 基准风险函数 即所有变量取零时的t时刻的风险...
分类:
其他好文 时间:
2014-12-08 10:50:43
阅读次数:
165
Hough Forest目标检测一种比较时兴的目标检测算法,Juergen Gall在2009的CVPR上提出。 Hough Forest听上去像hough变换+Random Forest的结合体,其实,不完全是这样的。它更像是decision forest和regression forest的结合...
分类:
编程语言 时间:
2014-12-02 15:03:17
阅读次数:
232
转载自http://leftnoteasy.cnblogs.com机器学习中的数学系列:1)回归(regression)、梯度下降(gradient descent)2)线性回归,偏差、方差权衡3)模型组合(Model Combining)之Boosting与Gradient Boosting4)线...
分类:
其他好文 时间:
2014-11-28 18:13:25
阅读次数:
181
逻辑回归(Logistic Regression)是机器学习中十分常用的一种模型,属于广义线性模型。在互联网领域得到了广泛的应用,尤其是在广告系统中用来估计CTR。本文主要介绍逻辑回归的模型形式,求解策略和算法。接着介绍逻辑回归的最大似然估计,最后说明为什么逻辑回归要采用sigmoid函数做变换。模...
分类:
其他好文 时间:
2014-11-21 18:26:10
阅读次数:
360
官方Tutorial地址:http://ufldl.stanford.edu/tutorial/supervised/SoftmaxRegression/...
分类:
其他好文 时间:
2014-11-20 20:24:03
阅读次数:
289
1 Gradient Checking 说明前面我们已经实现了Linear Regression和Logistic Regression,关键在于代价函数Cost Function和其梯度Gradient的计算。在Gradient的计算中,我们一般采用推导出来的计算公式来进行计算。但是我们看到,推导出来的公式是复杂的,特别到后面的神经网络,更加复杂。这就产生了一个问题,我们如何判断我们编写的程序就...
分类:
其他好文 时间:
2014-11-20 13:46:16
阅读次数:
339
1 Logistic Regression 简述Linear...
分类:
其他好文 时间:
2014-11-19 22:20:55
阅读次数:
207
train_data是训练特征数据, train_label是分类标签。Predict_label是预测的标签。MatLab训练数据, 得到语义标签向量 Scores(概率输出)。1.逻辑回归(多项式MultiNomial logistic Regression)Factor = mnrfit(tr...
分类:
其他好文 时间:
2014-11-13 20:41:50
阅读次数:
211