机器学习(Machine Learning)&深入学习(Deep Learning)资料?《Brief History of Machine Learning》 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机、神经网络、决策树、SVM、Adaboost 到随机森林、Deep Lear.....
分类:
系统相关 时间:
2015-04-27 14:56:05
阅读次数:
300
《Brief History of Machine Learning》
介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机、神经网络、决策树、SVM、Adaboost到随机森林、Deep Learning.
《Deep Learning in Neural Networks: An Overview》
介绍:这是瑞士人工智能实验室Jurgen Schmidhuber写的最新版本《神经网络与深...
分类:
其他好文 时间:
2015-04-23 15:42:56
阅读次数:
1141
1. C4.5C4.5算法是机器学习算法中的一种分类决策树算法,其核心算法是ID3算法. C4.5算法继承了ID3算法的优点,并在以下几方面对ID3算法进行了改进:1)用信息增益率来选择属性,克服了用信息增益选择属性时偏向选择取值多的属性的不足;2)在树构造过程中进行剪枝;3)能够完成对连续属性的离...
分类:
编程语言 时间:
2015-04-23 12:30:07
阅读次数:
203
这里是接着上一篇决策树算法介绍来的。
之前已经学习过决策树的整个方法,对它构造的过程有了比较清楚的认识。这一次的读书笔记就主要关注决策树的应用和用matplotlib来画出一棵决策树。
绘制决策树
matplotlib提供了一个注解工具annotations,跟matlab中的非常相似[不过个人认为matlab画图操作起来更加方便],他是一个很强大的工具。
首先我们先绘制决策树的一个节...
分类:
其他好文 时间:
2015-04-17 11:35:59
阅读次数:
256
原文:http://blog.csdn.net/mach_learn/article/details/39501849决策树一、 决策树优点1、决策树易于理解和解释,可以可视化分析,容易提取出规则。2、可以同时处理标称型和数值型数据。3、测试数据集时,运行速度比较快。4、决策树可以很好的扩展到大型数...
分类:
编程语言 时间:
2015-04-16 19:44:54
阅读次数:
139
随机森林和GBTs都是集成学习算法,它们通过集成多棵决策树来实现强分类器。
集成学习方法就是基于其他的机器学习算法,并把它们有效的组合起来的一种机器学习算法。组合产生的算法相比其中任何一种算法模型更强大、准确。
随机森林和梯度提升树(GBTs)。两者之间主要差别在于每棵树训练的顺序。
随机森林通过对数据随机采样来单独训练每一棵树。这种随机性也使得模型相对于单决策树更健壮,...
分类:
其他好文 时间:
2015-04-13 22:59:00
阅读次数:
892
#-*-coding:utf-8-*-
import ch
ch.set_ch()
import matplotlib.pyplot as plt
decisionNode = dict(boxstyle = "sawtooth",fc="0.8")
leafNode = dict(boxstyle="round4",fc = "0.8")
arrow_args = dict(ar...
分类:
其他好文 时间:
2015-04-13 12:54:29
阅读次数:
312
简述算法上一章的kNN更像是应用统计知识来进行科学的预测,它可以完成许多分类任务。但是最大的缺点就是无法给出数据的内在含义,而决策树算法数据形式非常便于理解。决策树的结果经常会应用到专家系统当中。构建一棵决策树的流程:检测数据集中每一个子祥的属性是否属于同一类
if so return 类标签;
else
寻找划分数据集的最好特征
划分数据集...
分类:
其他好文 时间:
2015-04-13 09:47:03
阅读次数:
197
机器学习的动机与应用工具:需正版:Matlab,免费:Octave定义(Arthur Samuel 1959):在不直接针对问题进行编程的情况下,赋予计算机学习能力的研究领域。例:Arthur的下棋程序,计算走每一步获胜的概率,最终打败程序作者本人。(感觉使用决策树思想)定义2(Tom Mitche...
分类:
其他好文 时间:
2015-04-10 19:59:18
阅读次数:
260
from math import log
#以决策为标准计算信息熵
def calcShannonEnt(dataSet):
numEntries = len(dataSet)
labelCounts = {}
for featVec in dataSet:
currentLabel = featVec[-1]
if cu...
分类:
其他好文 时间:
2015-04-09 21:56:49
阅读次数:
265