%% 生成二类线性可分数据function [feature, category]=generate_sample(step,error)aa=3; %斜率bb=3; %截距b1=1; rr =error;s=step;x1(:,1) = -1:s:1;n = length(x1(:,1));x.....
分类:
其他好文 时间:
2015-12-13 23:38:07
阅读次数:
238
本文原创如需转载请注明出处阅读目录一.什么是函数间隔?二.什么是几何间隔?三.函数间隔与几何间隔的关系?四.硬间隔最大化五.学习的对偶算法一.函数间隔在图A,B,C三点,A离超平面是最远的,所以A被分类错误的可能性是最小的,相反C离超平面的距离是最近的,所以C被分类错误的可能性是最大的,这很好理解。...
分类:
其他好文 时间:
2015-11-27 17:01:02
阅读次数:
535
3.1 线性不可以分我们之前讨论的情况都是建立在样例线性可分的假设上,当样例线性不可分时,我们可以尝试使用核函数来将特征映射到高维,这样很可能就可分了。然而,映射后我们也不能100%保证可分。那怎么办呢,我们需要将模型进行调整,以保证在不可分的情况下,也能够尽可能地找出分隔超平面。看下面两张图:可以...
分类:
其他好文 时间:
2015-11-26 12:41:19
阅读次数:
125
感知机,就是二类分类的线性分类模型,其输入为样本的特征向量,输出为样本的类别,取+1和-1二值,即通过某样本的特征,就可以准确判断该样本属于哪一类。顾名思义,感知机能够解决的问题首先要求特征空间是线性可分的,再者是二类分类,即将样本分为{+1, -1}两类。http://www.cnblogs.co...
分类:
其他好文 时间:
2015-10-26 22:18:09
阅读次数:
186
笔者:liangdas出处:简单点儿,通俗点儿,机器学习 http://blog.csdn.net/liangdas/article/details/44251469引言: 1995年Cortes和Vapnik于首先提出了支持向量机(Support Vector Machine)。因为其可以适...
分类:
其他好文 时间:
2015-10-24 20:14:18
阅读次数:
3024
(一)线性可分我们忽略建立目标函数的过程,直接写出目标函数。原问题:首先,我们得到了目标函数:这是一个凸优化问题,直接可以用KKT条件可证。对偶问题:原问题根据一系列的变换,可写成:满足某些条件,写成对偶目标函数,可以写成:先优化w,b,再优化α,问题变得简单一些了。将上述条件代入对偶目标函数,变成...
分类:
其他好文 时间:
2015-10-19 22:18:14
阅读次数:
286
1.多层感知器简介 多层感知器(MLP)可以看做一个逻辑回归,不过它的输入要先进行一个非线性变换,这样数据就被映射到线性可分的空间了,这个空间我们称为隐藏层。通常单层隐藏层就可以作为一个感知器了,其结构如...
分类:
其他好文 时间:
2015-10-16 23:26:19
阅读次数:
571
八卦Minsky打压神经网络始末谈下Minsky造成的神经网络冰河事件:57年一个叫弗兰克的大概只有二流水平的学者搞出了感知机,理论和实践证明了对线性可分问题的有效性,引起一阵轰动,特别是非科学圈类似新闻联播这样媒体的强烈关注,完全就是学术界的“一球成名”。而政府方面一看新闻联播都报道了,看来感知机...
分类:
其他好文 时间:
2015-09-11 20:41:45
阅读次数:
216
前言 定义: 在特征空间上间隔最大的线性分类器。 核是SVM非常重要的一个特性。 支持向量机的学习策略就是间隔最大化,可形式化为一个求解凸二次规划的问题。 分类 1》线性可分支持向量机 2》线性支持向量机 3》非线性支持向量机 如果训练数据线性可分,那么可以通过硬间隔最大化,学习一个线性分类器,就是...
分类:
其他好文 时间:
2015-09-02 00:31:35
阅读次数:
237
本文对支持向量机做了简单介绍,并对线性可分支持向量分类机、线性支持向量分类机以及核函数做了详细介绍。
分类:
其他好文 时间:
2015-08-19 00:26:56
阅读次数:
219