1.下面的代码是上一篇理论中的小例子 from sklearn.neighbors import KNeighborsClassifier # K近邻分类器 from sklearn.datasets import load_iris # 鸢尾花数据 from sklearn.tree import ...
分类:
其他好文 时间:
2020-06-28 22:54:43
阅读次数:
101
校招在即,准备准备一些面试可能会用到的东西吧。希望这次面试不会被挂。 基本概念 说到机器学习模型的误差,主要就是bias和variance。 Bias:如果一个模型的训练错误大,然后验证错误和训练错误都很大,那么这个模型就是高bias。可能是因为欠拟合,也可能是因为模型是弱分类器。 Variance ...
分类:
编程语言 时间:
2020-06-24 19:43:11
阅读次数:
67
boosting Boosting 算法的特点在于:将表现一般的弱分类器通过组合变成更好的模型。代表自然就是我们的随即森林了。 GBDT和Adaboost是boost算法中比较常见的两种,这里主要讲解Adaboost。 Adaboost Adaboost算法的核心就是两个权重。对于数据有一个权重,权 ...
分类:
编程语言 时间:
2020-06-21 09:50:32
阅读次数:
59
分类器性能评估指标 一、精度-召回率-F度量 Precision-Recall-F_measure 准确率和混淆矩阵 二、损失函数 Loss Function 三、接收机操作曲线 ROC Curve 回归器效能评估方法 ...
分类:
其他好文 时间:
2020-06-19 00:56:38
阅读次数:
69
一、随机森林算法简介: 在机器学习中,随机森林是一个包含多个决策树的分类器, 并且其输出的类别是由个别树输出的类别的众数而定。 Leo Breiman和Adele Cutler发展出推论出随机森林的算法。而 "Random Forests" 是他们的商标。 这个术语是1995年由贝尔实验室的Tin ...
分类:
编程语言 时间:
2020-06-18 10:24:12
阅读次数:
57
https://www.cnblogs.com/zyly/p/9416263.html adaboost底数为e 系数αkαk表示了弱分类器Gk(x)Gk(x)的重要性,这里所有αα之和并不为1,f(x)f(x)的符号决定实例xx的类,f(x)f(x)的绝对值表示分类的置信度。 ...
分类:
其他好文 时间:
2020-06-17 23:07:09
阅读次数:
59
基本思路 Adaboost体现的是“三个臭皮匠,胜过一个诸葛亮”,它是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器), 然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。训练过程如下(参考Andy的机器学习--浅析Adaboost算法,他说得非常形象,贴切。) ...
分类:
编程语言 时间:
2020-06-17 20:12:02
阅读次数:
45
import numpy as npfrom sklearn import datasetsfrom sklearn.neighbors import KNeighborsClassifiernp.random.seed(0)iris = datasets.load_iris()x = iris.d ...
分类:
其他好文 时间:
2020-06-14 22:06:54
阅读次数:
92
1.理解分类与监督学习、聚类与无监督学习。简述分类与聚类的联系与区别。 答:分类与聚类的联系:想要分析的目标点,都会在数据集中寻找离它最近的点。 分类与聚类的区别:分类是事先定义好类别 ,类别数不变 。分类器需要由人工标注的分类训练语料训练得到,属于有指导学习范畴。聚类则没有事先预定的类别,类别数不 ...
分类:
编程语言 时间:
2020-06-08 23:43:14
阅读次数:
101
贝叶斯 贝叶斯(约1701-1761) Thomas Bayes,英国数学家。约1701年出生于伦敦,做过神甫。1742年成为英国皇家学会会员。1761年4月7日逝世。贝叶斯在数学方面主要研究概率论。他首先将归纳推理法用于概率论基础理论,并创立了贝叶斯统计理论,对于统计决策函数、统计推断、统计的估算 ...
分类:
其他好文 时间:
2020-06-06 21:57:18
阅读次数:
78