码迷,mamicode.com
首页 > 其他好文 > 详细

UFLDL教程(四)之Softmax回归

时间:2016-04-01 18:18:17      阅读:282      评论:0      收藏:0      [点我收藏+]

标签:

 

关于Andrew Ng的machine learning课程中,有一章专门讲解逻辑回归(Logistic回归),具体课程笔记见另一篇文章

下面,对Logistic回归做一个简单的小结:

给定一个待分类样本x,利用Logistic回归模型判断该输入样本的类别,需要做的就是如下两步:

① 计算逻辑回归假设函数的取值hθ(x),其中n是样本的特征维度

技术分享

② 如果hθ(x)>=0.5,则x输入正类,否则,x属于负类

或者直接利用判别边界进行判断,即:如果θ‘x>=0,则x输入正类,否则,x属于负类                                                                            

所以,Logistic回归只能解决两类分类问题。


************************

这里一个很重要的问题就是,在对待分类样本进行分类之前,需要利用训练样本对该逻辑回归模型的参数θ=[θ1, θ2, ..., θn]进行求解

最优化的模型参数就是使代价函数取得最小值的参数,所以,只要利用优化,找到使得代价函数具有最小值的参数即可。

(1)给定参数theta的初始值

(2)利用函数fminunc对代价函数进行优化,求得最优化的theta值

      该函数要求输入theta的初始值、梯度和代价函数的计算函数、其他设置

(3)得到最优化的theta值后,对于某一个待分类样本,计算它的假设函数取值或者是判定边界的取值,从而可以对其分类进行判别

************************

 下面开始是softmax回归问题

  

0步:初始化参数

样本特征维数n (inputSize)

样本类别数k (numClasses)

衰减项权重  (lambda)

技术分享

 

第一步:载人MNIST数据集

① 载入MNIST数据集

② 载入MNIST数据集的标签

在标签集中,标签0表示数字0,为了后续处理方便,将数字0的标签改为10

注1:实验中,有时为了调试方便,在调试时,可以加入合成数据;

注2:程序文件夹中,为了分类方便,将MNIST数据集和MNIST数据集的操作函数都存放在MNIST文件夹中,在使用前,加入语句addpath mnist/即可;

技术分享

 

随机产生参数theta的初始值

它的维数是k*n,k是类别数numClasses,n是输入样本的特征维数inputSize

技术分享

 

第二步:编写softmax函数

该函数的作用是计算代价函数及代价函数的梯度

(1)计算代价函数

① 代价函数的计算公式如下:

技术分享

② 程序中的向量化计算方法如下:

技术分享

(2) 计算梯度

① 梯度的计算公式如下:

技术分享

② 程序中向量化计算方法如下:

技术分享

技术分享

 

第三步:梯度检验

在首次编写完softmax函数后,要利用梯度检验算法,验证编写的softmaxCost函数是否正确;直接调用checkNumericalCradient函数

 

第四步:利用训练样本集学习Softmax的回归参数

技术分享

 

第五步:对于某一个待分类样本,利用求得的softmax回归模型对其进行分类

技术分享

 

 

******关于向量化的程序公式的推导******

(1)已知参数的形式

① 参数θ的形式

技术分享

② 输入数据x的形式

技术分享

θx的乘积形式,记为矩阵M

技术分享

(2)单个样本的成本函数

① 单个样本的成本函数

技术分享

即:技术分享

② 单个样本的假设函数

技术分享

但实际中,为了不会出现计算上的溢出,需要对假设函数的每一项都做如下调整

技术分享

其中:技术分享

则有:

技术分享

(3)m个样本的成本函数

m个样本的成本函数

技术分享

m个样本的假设函数

技术分享

其中:

技术分享

(4) 计算梯度

① 单个样本的梯度计算

技术分享

注1:技术分享

注2:技术分享

② m个样本梯度的计算

技术分享

则有:

技术分享

 

 

******按照神经网络的形式理解softmax模型******

(1)softmax模型,可以以神经网路的形式绘制,如下图所示

技术分享

 

可以看到,softmax模型与传统的神经网络相比,只是输出层所使用的函数发生了变化:softmax模型使用的是指数函数,而神经网络使用的是sigmoid函数;

UFLDL教程(四)之Softmax回归

标签:

原文地址:http://blog.csdn.net/tina_ttl/article/details/51034784

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!