在第二章中我们学习到感知机模型的相关知识, 感知机模型是当数据线性可分时,如何利用一个超平面区分两类不同的数据。 对于以上情况,支持向量机和感知机是非常相似的,两者的差别在于 损失函数的不同 。当线性不可分的情况下,SVM可以用 核函数 来实现对线性不可分的数据进行分类。 思维导图 硬间隔最大化和软 ...
分类:
其他好文 时间:
2019-09-07 22:11:59
阅读次数:
114
经常用到sklearn中的SVC函数,这里把文档中的参数翻译了一些,以备不时之需。 本身这个函数也是基于libsvm实现的,所以在参数设置上有很多相似的地方。(PS: libsvm中的二次规划问题的解决算法是SMO)。sklearn.svm.SVC(C=1.0, kernel='rbf', degr ...
分类:
其他好文 时间:
2019-09-02 19:47:06
阅读次数:
160
1、什么是逻辑回归; 2、逻辑回归的流程及推导; 3、逻辑回归的多分类 4、逻辑回归VS线性回归 5、逻辑回归 VS SVM 1、什么使逻辑回归; 名为回归,实际是分类,通过计算$P(y=0|x;\theta )$的大小来预测分类类别,预测的是类别0,1,而不是概率,但计算的是概率;$0\leq P ...
分类:
其他好文 时间:
2019-09-01 14:52:04
阅读次数:
76
二类分类模型 模型:在特征空间上的间隔最大的线性分类器求解凸优化(凸二次规划) 1、线性可分支持向量机 利用间隔最优化求最优分离超平面,解是唯一的; $$\omega ^{\ast }\cdot x+b^{\ast }=0$$ 分类决策函数 $$f(x)=sign(\omega ^{\ast }\c ...
分类:
其他好文 时间:
2019-09-01 14:51:15
阅读次数:
73
1、GBDT模型介绍; 2、GBDT回归算法 3、GBDT分类算法 4、GBDT的损失函数 5、正则化 6、GBDT的梯度提升与梯度下降法的梯度下降的关系; 7、GBDT的优缺点 1、GBDT模型介绍; GBDT(Gradient Boosting Decision Tree) 又名:MART(Mu ...
分类:
其他好文 时间:
2019-09-01 14:45:08
阅读次数:
697
判别式模型(Discriminative Model)是直接对条件概率p(y|x;θ)建模。常见的判别式模型有 线性回归模型、线性判别分析、支持向量机SVM、神经网络等。 生成式模型(Generative Model)则会对x和y的联合分布p(x,y)建模,然后通过贝叶斯公式来求得p(yi|x),然 ...
分类:
其他好文 时间:
2019-08-28 13:03:45
阅读次数:
70
可以不进行特定样本下的微调吗?可以直接采用AlexNet CNN网络的特征进行SVM训练吗? 不针对特定任务进行微调,而将CNN当成特征提取器,pool5层得到的特征是基础特征,类似于HOG、SIFT,类似于只学习到了人脸共性特征;从fc6和fc7等全连接层中所学习到的特征是针对特征任务特定样本的特 ...
分类:
其他好文 时间:
2019-08-24 21:20:02
阅读次数:
126
支持向量机是一个点离决策边界越近,离决策面越远的问题 求解的过程主要是通过拉格朗日乘子法,来求解带约束的优化问题,在问题中涉及两个方面,一个是线性的,一个是非线性的,非线性的有 我们平时比较常见的高斯核函数(径向基函数),他的主要做法就是把低维的数据变成高维数据,通过^2的方法 在支持向量基中的参数 ...
分类:
其他好文 时间:
2019-08-22 11:22:22
阅读次数:
104
grep -Ei 'vmx|svm' /proc/cpuinfo yum -y install qemu-img virt-install virt-viewer virt-manager libguest* libvirt* qemu-system qemu-key-tools python-vi ...
分类:
其他好文 时间:
2019-08-22 00:59:54
阅读次数:
77
第一代:机器语言 第二代:汇编语言 第三代:高级语言 第四代:sql 面向过程与面向对象: 实例分析: 类是对象的抽象,对象是类的实例化,对象是具体的唯一的,而类却是抽象的一类事物不是具体的 的,特征抽象为属性,行为抽象为方法 方法和函数:无论什么方法都是一类事物的行为操作,在某种意义上是依赖类存在 ...
分类:
其他好文 时间:
2019-08-19 22:57:03
阅读次数:
84