码迷,mamicode.com
首页 > 编程语言 > 详细

机器学习算法面试口述(7)—分类小结

时间:2015-08-27 13:29:02      阅读:208      评论:0      收藏:0      [点我收藏+]

标签:机器学习   算法   分类   面试   

这个系列是为了应对找工作面试时面试官问的算法问题,所以只是也谢算法的简要介绍,后期会陆续补充关于此

算法的常见面问题。

 分类的概念就说了,分类一般分为两个阶段:学习阶段以及分类阶段;

  常用的分类方法有:

1、决策树

  决策树不需要任何领域的知识或者参数的设置,其可以处理高维数据,简单快速。

若分类的数据是连续的,则需要插入分裂点将数据离散化;树建立的过程中,需要按照一定的

规则选择分裂的属性,可以有信息的增益、增益率、基尼指数等等,不同的规则对应的决策树,

如前面三种分别对应ID3、C4.5、CART。

树的建立过程中或则建立后可能需要对树进行剪枝;树的剪枝分为先剪枝和后剪枝,先剪枝是

提前停止书的构造,而后剪枝是将完全生长的树减去子树。

  以上的几种方法都只能适用于能贮存于内存的数据,若是数据量过大,这几种方法都不行

(可以考虑RainForest)!具体关于决策树可以见前面的博文。

http://blog.csdn.net/xwchao2014/article/details/47979167


2、贝叶斯方法(朴素贝叶斯以及贝叶斯信念网络)

这个方法前面博文中已经写得很详细了,可以参考下。其实也就是一个贝叶斯公式。。。

http://blog.csdn.net/xwchao2014/article/details/47977283


3、组合分类方法

  两种常用的组合分类方法:装袋与提升

装袋:比如投票,每一票的权重都是相同的;

提升:与装袋不同的是其每一票的权重是不同的,比如AdaBoost;

当然还有就是也比较出名的随机森林(这个还没看,这个之后补上)!

关于AdaBoost可以看前面的博文,下面会给出链接:

http://blog.csdn.net/xwchao2014/article/details/47953353


4、基于规则的分类

使用IF-THEN规则分类

覆盖率与准确率

数据集D,规则R覆盖的元祖数Ncovers,其中正确的为Ncorrect则
coverage(R) = Ncovers / |D|, accuracy(R) = Ncorrect / Ncovers

当多个规则同时触发时,可以使用下面两个方式决定哪个规则先响应
1.规模序:选择条件最苛刻的(一般为条件最多的);
2.规则序:事先定义了优先级。

从树的跟到叶节点的路径创建一个规则,这样的规则是互斥(不存在冲突)以及穷举
的(存在所有的规则)。

规则集的修改:不能提高规则的估计准确率的任何条件都应该被剪掉。
 

使用顺序覆盖算法的规则归纳

一般的策略是:一次学习一个规则,每学习一个规则就删除该规则覆盖的元组,并在剩下
的元组中重该过程。

模型的评估与选择

可以参考决策树;

交叉验证

k-折交叉验证:将数据分组,每次留出一组作为验证集
留一:每次使用一个样本作为验证集

自助法

有放回的均匀抽样,常用的有。632自助法(数据的63.2%出现在自助样本中)


5、后向传播分类

神经网络是一组连接的输入/输出单元,其中每个连接与一个权重相关联,通过调整权重,
测输入元组的类别。其优点是抗噪性能好,分类能力比较强,缺点是知识的表示比较不容易。

前馈网络

输入层 + 隐藏层 + 输出层(没有一个反向传播的过程)。
理论上:给足够多的训练样本以及隐藏单元,可以逼近任意函数。

后向传播

比前馈网络多了一个后向传播的过程;整体步骤如下
1、初始化权重; 2、前向传播; 3、后向传播误差,更新数据;
算法结束的终止条件:1、周期内所有权重的更新值小于某一值;
2、迭代次数达到某一预先设定好的值;


6、SVM(支持向量机)

这个可以参考前面的博文http://blog.csdn.net/xwchao2014/article/details/47948063

或则网上有个SVM的三重境界写的蛮详细,可以看看;


7、使用频繁模式分类

1,、关联分析; 2、基于有区别力的频繁模式分类; -> 这两个现在不写了,后面的文章会
详细写这两个

 

以上的这些方法都是急切学习法,也就是说在分类数据前,已经建立好了模型,主要的工作

是在模型的建立上面;下面说一下惰性学习法;


惰性学习法——给定一个训练元祖,知识简单的存储它,并一直等待,知道给定一个

检验元组时才进行泛化;

1、基于K-近邻

      计算所有数据与给定标号点的距离,离哪个近则归于哪一类(计算量太大);

2、基于案例的推理

首先检查是否存在同样的训练案例,如存在则直接返回对应的结果;
若是找不到,则搜索具有雷士的新案例和组合解的合适方法;


其他的分类方法

1、遗传算法

交叉、变异、最合适的规则及后代

2、粗糙集算法

上近似以及下近似的概念;

3、模糊集的方法

允许处理模糊的、不精确的事实,是一种软分类


对于多分类的问题可以组合几个二分类!


半监督分类

 使用有标号的数据与无标号的数据构造分类器;
假设存在数据:
有标号的数据Xl = {(x1,y1),(x2,y2),......(xk,yk)};
无标号的数据Xu = {xk+1,....xn};

1、自我训练

先使用有标号的数据构造分类器,将构造好的分类器对无标号的数据进行分类,将分类结果中
最有把握的分类数据及其分类标号加入到有标号的数据中,重复训练与分类;
  可能会强化错误,这是其一个缺点;

2、协同训练

两个或则多个分类器互相教学;
对数据Xl,定义两个不重叠的特征集,训练两个不同的分类器,f1,f2,使用这两个分类器对Xu
进行分类,将最有把握的(x,f1(x))添加到f2中的有标号的数据中,将最有把我的(x,f2(x))
添加到f1中的有标号的数据中;重复整个过程;

3、主动学习

适用于数据丰富,但是类标号稀缺或则获取昂贵的情况。
设D为小子集的有标号的数据集,这个小子集定义为L,从L开始为初始训练集,之后使用一个
查询函数从(D-L)中精心选择一个或者多个样本像一位智者询问其标号,之后加入到L中去;
这个方法的问题在于如何选择被询问的元,可以使用不确定抽样、决策论等方面的知识。

4、迁移学习

从一个或则多个源任务提取知识,并将这种知识用于目标任务(分类器的构造需要较少的训练
数据和较少的训练时间);
假定老数据大部分有用,通过自动调整赋予训练原组的权重,过滤掉与新数据很不相同的老数
据的影响;迁移学习的难点在于负迁移的情况的出现(负迁移是指新分类器的性能比完全不迁
移的效果还差)!




版权声明:本文为博主原创文章,未经博主允许不得转载。

机器学习算法面试口述(7)—分类小结

标签:机器学习   算法   分类   面试   

原文地址:http://blog.csdn.net/xwchao2014/article/details/48011301

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!