这一节课主要讲如何用logistic regression做分类。 在误差衡量问题上,选取了最大似然函数误差函数,这一段推导是难点。 接下来是如何最小化Ein,采用的是梯度下降法,这个比较容易。 参考:http://beader.me/mlnotebook/section3/logistic-re....
分类:
其他好文 时间:
2015-06-25 22:56:17
阅读次数:
226
在进行图像处理过程中,我们经常会用到梯度迭代求解大型现在方程组;今天在对奇异矩阵进行求解的时候,出现了缺少dll的情况;
报错如下图:
缺少cusparse32_60.dll
缺失cublas32_60.dll
解决方案:
(1)将cusparse32_60.dll和cublas32_60.dll直接拷贝到C:\Windows目录,但这样在一直的时候,还会出现同样错误,为了避免麻烦,最好采用方法(2)
(2)将cusparse32_60.dll和cublas32_60.dll拷贝到你所在项目的文件目录...
分类:
其他好文 时间:
2015-06-23 20:04:31
阅读次数:
163
根据李航博士总结的统计学习三要素方法=模型+策略+算法,对应于逻辑回归
模型=基于单极型函数(逻辑函数)的条件概率模型
策略=经验损失对应的训练样本先验概率最大化
算法=随机梯度上升法
逻辑回归MATLAB代码比较简单,如下所示,循环对所有的样本,进行梯度上升算法
function [w]=LogisticRegression(x,y,learningRate,m...
分类:
编程语言 时间:
2015-06-21 09:28:53
阅读次数:
624
BP(backpropgationalgorithm ):后向传导算法,顾名思义就是从神经网络的输出(顶层)到输入(底层)进行求解。那么求解什么呢,求解的就是神经网络中的参数的导数,即参数梯度方向,从而就可以使用梯度下降等求解无约束问题(cost function的最值)的方法求得最终的参数。神经网络前向传播的过程比较简单,这里不做讲解(如果不了解,可以参看文献)。
1.问题分析
1.1 Co...
分类:
编程语言 时间:
2015-06-21 02:09:05
阅读次数:
248
分类模型如下: 回归问题:学习的结果是连续的,比如房价等等
分类问题:学习的结果是非连续的,分成某几个类
梯度下降例子:
:条件:
对于输入X有n个特征值。X = {x1,x2,x3,x4,.......,xnx_1, x_2, x_3, x_4, ....... ,x_n}
一共有m组输入。X1,X2,......,XmX_1, X_2, ...... , X_m
结果:
根据给出的数据得到函数...
分类:
其他好文 时间:
2015-06-20 17:06:49
阅读次数:
207
感知机算法属于比较简单的分类器算法,但是跟逻辑回归和支持向量机一样属于构建分类超平面。
不同的是感知机采用分错的样本与分类超平面的距离作为损失函数,下面的算法基于随机梯度下降法,采用异步方式达到收敛状态
function [w,b]=perceptionLearn(x,y,learningRate,maxEpoch)
% Perception Learn Algorithm
% x...
分类:
编程语言 时间:
2015-06-19 23:06:59
阅读次数:
1995
对SVM的个人理解之前以为SVM很强大很神秘,自己了解了之后发现原理并不难,不过,“大师的功力在于将idea使用数学定义它,使用物理描述它”,这一点在看SVM的数学部分的时候已经深刻的体会到了,最小二乘法、梯度下降法、拉格朗日乘子、对偶问题等等被搞的焦头烂额。在培乐园听了讲课之后才算比较清晰的了解了...
分类:
其他好文 时间:
2015-06-19 21:32:03
阅读次数:
278
分类模型如下: 回归问题:学习的结果是连续的,比如房价等等
分类问题:学习的结果是非连续的,分成某几个类
回归问题(Regression)例子:
:条件:
对于输入X有n个特征值。X = {x1,x2,x3,x4,.......,xnx_1, x_2, x_3, x_4, ....... ,x_n}
一共有m组输入。X1,X2,......,XmX_1, X_2, ...... , X_m
结果:...
分类:
其他好文 时间:
2015-06-19 10:40:03
阅读次数:
180
代码: 1 import numpy as np 2 import csv 3 import math as mt 4 5 def hypo(tt,xx): #hypothesis函数 6 exp=mt.e 7 tmp=0.0 8 for i in range...
分类:
其他好文 时间:
2015-06-14 18:11:23
阅读次数:
141
1.梯度下降1.1批梯度下降eg1:用梯度下降法确定h(x)=x^2-t*x-t中参数t的值注意迭代因子的选择很重要QAQ,如果程序结果成了发散的就要看看是不是迭代因子选的不好。【最后那个-0.01是无意中试出来的QwQ 1 def hypo(t,x): #precise answ...
分类:
编程语言 时间:
2015-06-11 22:29:39
阅读次数:
145