Viola-Jones 人脸检测 1.Haar特征抽取 ‘ 2. Adaboost 算法 ...
分类:
其他好文 时间:
2019-06-30 14:07:38
阅读次数:
107
adaboost 的思想很简单,算法流程也很简单,但它背后有完整的理论支撑,也有很多扩展。 权重更新 在算法描述中,权重如是更新 其中 wm,i 是m轮样本i的权重,αm是错误率,Øm是第m个基学习器的输出,Zm是归一化因子 当预测值与真实值相同时,yØ=1,-αyØ<0,exp(-αyØ)<1,权 ...
分类:
其他好文 时间:
2019-06-26 16:26:12
阅读次数:
141
一、简介 这个方法主要涉及到2个权重集合: 样本的权重集合每个样本都对应一个权重。 在构建第一个弱模型之前,所有的训练样本的权重是一样的。第一个模型完成后,要加大那些被这个模型错误分类(分类问题)、或者说预测真实差值较大(回归问题)的样本的权重。依次迭代,最终构建多个弱模型。每个弱模型所对应的训练数 ...
分类:
其他好文 时间:
2019-06-14 18:26:15
阅读次数:
90
一、BP_ Adaboost模型 Adaboost 算法的思想是合并多个“弱”分类器的输出以产生有效分类。其主要步骤为 : (1)首先给出弱学习算法和样本空间(x, y) ,从样本空间中找出 m 组训练数据,每组训练数据的权重都是 1 /m。 (2)用弱学习算法迭代运算 T 次,每次运算后都按照分类 ...
分类:
其他好文 时间:
2019-05-26 15:55:53
阅读次数:
177
集成学习方式总共有3种:bagging-(RF)、boosting-(GBDT/Adaboost/XGBOOST)、stacking 下面将对Bagging 进行介绍:(如下图所示) 用Bagging的方法抽取训练集时,大约有1/3 的数据没有被抽到。 从训练集进行一系列的子抽样,得到子训练集,训练 ...
分类:
其他好文 时间:
2019-05-22 11:06:06
阅读次数:
118
Adaboost是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。其算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值。将修改过权值... ...
分类:
编程语言 时间:
2019-05-19 22:06:50
阅读次数:
191
1. PCA和LDA 百面机器学习,统计学习方法(第二版), "李政轩Linear Discriminant Analysis" 2. SVM 林轩田机器学习技法,统计学习方法(第二版) 3. Kernel Trick "李政轩" 4. Adaboost 林轩田机器学习技法,统计学习方法(第二版) ...
分类:
其他好文 时间:
2019-05-14 13:31:02
阅读次数:
108
0提升的基本方法 对于分类的问题,给定一个训练样本集,求比较粗糙的分类规则(弱分类器)要比求精确的分类的分类规则(强分类器)容易的多。提升的方法就是从弱分类器算法出发,反复学习,得到一系列弱分类器(又称为基本分类器),然后组合这些弱分类器,构成一个强分类器。大多数的提升方法都是改变训练数据集的概率分 ...
分类:
编程语言 时间:
2019-05-09 21:45:32
阅读次数:
200
原文地址:https://www.jianshu.com/p/d8ceeee66a6f Decision Tree 基本思想在于每次分裂节点时选取一个特征使得划分后得到的数据集尽可能纯。 划分标准 信息增益(Information Gain) 信息增益 = 未划分数据集的信息熵 划分后子数据集的信息 ...
分类:
其他好文 时间:
2019-05-04 00:16:56
阅读次数:
127
import numpy as np import matplotlib.pyplot as plt from sklearn import datasets,ensemble from sklearn.model_selection import train_test_split def load... ...
分类:
编程语言 时间:
2019-05-02 09:51:33
阅读次数:
138