这个系列是为了应对找工作面试时面试官问的算法问题,所以只是也谢算法的简要介绍,后期会陆续补充关于此
算法的常见面问题。
一、Logistic回归
先说下logistic回归,它是根据现有数据对分类边界建立回归公式,以此进行分类。其计算代价不高,易于实现与理解,但是容易欠拟合、分类精度不太高;
logistic回归可以看成是一种概率估计,使用的的是sigmioid函数,...
分类:
编程语言 时间:
2015-08-26 12:04:29
阅读次数:
286
Spark中迭代式机器学习算法的数据流可以通过图2.3来进行理解。将它和图2.1中Hadoop MR的迭代式机器学习的数据流比较一下。你会发现在Hadoop MR 中每次迭代都会涉及HDFS的读写,而在Spark中则要简单得多。它仅需从...
分类:
其他好文 时间:
2015-08-26 10:53:32
阅读次数:
149
这个系列是为了应对找工作面试时面试官问的算法问题,所以只是也谢算法的简要介绍,后期会陆续补充关于此
算法的常见面问题!
决策树是一种依托于策略抉择而建立起来的树,是一种依托于分类、训练上的预测树,根据已知,预测和分类未来。
决策树的建立是不断的使用数据的特征将数据分类的过程,主要的问题在于如何选择划分的特征;
常用的几种决策树算法有ID3、C4.5、CART等;其中ID3使用的是信息熵增益...
分类:
编程语言 时间:
2015-08-25 19:42:19
阅读次数:
349
这个系列是为了应对找工作面试时面试官问的算法问题,所以只是也谢算法的简要介绍,后期会陆续补充关于此算法的常见面试的问题!
贝叶斯分类器的原理其实很简单,知道了贝叶斯公式基本上就知道了贝叶斯分类器的工作原理。对于一个待分类项,求出此项出现的条件下哪个类别的概率大,就判定为哪类,仅次而已。其实贝叶斯分类器是建立在错误的理论上建立起来的分类器,没错就是错误的理论,它假定事物之间是没有联系的...
分类:
编程语言 时间:
2015-08-25 16:40:06
阅读次数:
175
欢迎使用Markdown编辑器写博客本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦:
Markdown和扩展Markdown简洁的语法
代码块高亮
图片链接和图片上传
LaTex数学公式
UML序列图和流程图
离线写博客
导入导出Markdown文件
丰富的快捷键
快捷键
加粗 Ctrl + B
斜体 Ctrl + I
引用 Ctrl...
分类:
其他好文 时间:
2015-08-21 21:39:40
阅读次数:
166
决策树是一种常见的机器学习算法,用于有监督分类问题,本文结合一个具体实例,通过手动一步一步建树,学习算法原理。...
分类:
其他好文 时间:
2015-08-16 23:14:48
阅读次数:
199
Booststrap aggregating (有些地方译作:引导聚集),也就是通常为大家所熟知的bagging。在维基上被定义为一种提升机器学习算法稳定性和准确性的元算法,常用于统计分类和回归中。而Boosting在维基中被定义为一种主要用来减少偏差(Bias)和同时也可降低方差(Variance...
分类:
其他好文 时间:
2015-08-16 21:16:33
阅读次数:
183
谈完数据结构中的树(详情见参照之前博文《数据结构中各种树》),我们来谈一谈机器学习算法中的各种树形算法,包括ID3、C4.5、CART以及基于集成思想的树模型Random Forest和GBDT。本文对各类树形算法的基本思想进行了简单的介绍,重点谈一谈被称为是算法中的“战斗机”,机器学习中的“屠.....
分类:
系统相关 时间:
2015-08-16 18:06:31
阅读次数:
524
原文:http://www.52ml.net/15063.html如何选择机器学习算法2014年5月7日机器学习smallroofHow do you know what machine learning algorithm to choose for your classification pro...
分类:
编程语言 时间:
2015-08-16 13:32:48
阅读次数:
106
训练样本大小选取的问题模型学习的准确度与数据样本大小有关,那么如何展示更多的样本与更好的准确度之间的关系呢?我们可以通过不断增加训练数据,直到模型准确度趋于稳定。这个过程能够很好让你了解,你的系统对样本大小及相应调整有多敏感。所以,训练样本首先不能太少,太少的数据不能代表数据的整体分布情况,而且容易过拟合。数据当然也不是越多越好,数据多到一定程度效果就不明显了。不过,这里假设数据是均匀分布增加的。然...
分类:
编程语言 时间:
2015-08-12 14:38:42
阅读次数:
200