? 使用逻辑地模型来进行分类,可以算出每个测试样本分属于每个类别的概率 ● 二分类代码 ● 输出结果 ● 画图 ● 多分类代码(坑) ...
分类:
其他好文 时间:
2019-07-26 17:41:15
阅读次数:
105
1. 算法思想 对线性可分的情形:通过最大化硬间隔(几何间隔),找出最佳分离超平面,从而分类数据 对弱线性可分情形:最大化软间隔(通过加一个松弛因子),找出分离超平面,分类数据 线性不可分的情形:通过核技巧把原始数据映射到高维空间,转化为线性可分的情形,然后继续求解。 2. 算法推导 (1)函数间隔 ...
分类:
其他好文 时间:
2019-07-18 22:31:24
阅读次数:
149
第三章 经典算法 0 写在前面 本章介绍了 SVM,逻辑回归和决策树 三个经典算法。这三个算法在李航的《统计学习方法》中分别拿出了三章重点讲解。本节的提问需要有相应的基础,通过书中的提问发现自己基础太弱了,而基础知识最能考察一个人的学习能力。(记得考研时张宇说过,基础知识不等于简单知识,越是抽象的基 ...
分类:
编程语言 时间:
2019-07-18 00:21:27
阅读次数:
199
? k 近邻法来分类,用到了 kd 树的建立和搜索 ● 代码 ● 输出结果 ● 画图 ...
分类:
其他好文 时间:
2019-07-09 20:57:14
阅读次数:
137
机器学习 周志华:《机器学习》 李航:《统计学习方法》 图灵程序设计丛书:《机器学习实战》 机械工业出版社:《机器学习实战:基于Scikit-Learn和TensorFlow 》 前两本书,在我们实验室基本人手一本,可见其真的很好。这两本我都读过,周老师讲的浅显易懂,推荐初学者读。李航老师是从统计学 ...
分类:
其他好文 时间:
2019-06-09 13:03:24
阅读次数:
114
1. PCA和LDA 百面机器学习,统计学习方法(第二版), "李政轩Linear Discriminant Analysis" 2. SVM 林轩田机器学习技法,统计学习方法(第二版) 3. Kernel Trick "李政轩" 4. Adaboost 林轩田机器学习技法,统计学习方法(第二版) ...
分类:
其他好文 时间:
2019-05-14 13:31:02
阅读次数:
108
k近邻法:为新的输入在数据集中找到与该实例距离最短的k个实例,这k个实例的多数属于某个类,则把该实例归入到该类中(“多数表决”规则) 算法实现 参考文献: 1. 《统计学习方法》李航 2. 知乎:一文搞懂k近邻算法 https://zhuanlan.zhihu.com/p/25994179 http ...
分类:
其他好文 时间:
2019-04-19 16:04:53
阅读次数:
147
" " " " 很好理解,就是将一些基本的性能一般的弱分类器组合起来,来构成一个性能较好的强分类器;这其中如果数据一样的话那不是每次训练出的分类器就都一样了嘛,所以在每次训练后要根据训练结果来改变数据的权重;还有一个关键点是通过什么方法来组合这些弱分类器. " " " " " " " " 由8.2可 ...
分类:
其他好文 时间:
2019-04-06 17:12:28
阅读次数:
152
" " " " 介绍了分布函数和概率密度,函数特点. " " " " " " 这里的逻辑斯谛回归模型就是为了将实数范围映射到(0,1)范围上.即将线性函数外套上sigmoid函数. https://blog.csdn.net/hfutxiaoguozhi/article/details/788439 ...
分类:
其他好文 时间:
2019-03-08 16:38:05
阅读次数:
179
EM算法与高斯混合模型 前言 EM算法是一种用于含有隐变量的概率模型参数的极大似然估计的迭代算法。如果给定的概率模型的变量都是可观测变量,那么给定观测数据后,就可以根据极大似然估计来求出模型的参数,比如我们假设抛硬币的正面朝上的概率为p(相当于我们假设了概率模型),然后根据n次抛硬币的结果就可以估计 ...
分类:
编程语言 时间:
2019-03-05 21:29:26
阅读次数:
229