集成学习 集成学习通过构建并结合多个学习器来完成学习任务。 集成学习的思路是通过合并多个模型来提升机器学习性能,这种方法相较于当个单个模型通常能够获得更好的预测结果。这也是集成学习在众多高水平的比赛如奈飞比赛,KDD和Kaggle,被首先推荐使用的原因。 分类 用于减少方差的bagging 用于减少 ...
分类:
其他好文 时间:
2019-11-16 12:16:46
阅读次数:
70
KNN(K-Nearest Neighbor) K 近邻算法,K近邻就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。KNN算法用于监督学习分类模型,预测结果是离散的机器学习算法。 KNN算法原理: 1、计算每个测试数据与每个训练数据的距离(相识度); 2、按照距离升序,对训 ...
分类:
编程语言 时间:
2019-11-16 00:21:48
阅读次数:
77
从百度云课堂上截图的基础概念,如果之前不了解的可以先看一下这篇博客:https://blog.csdn.net/weixin_30708329/article/details/97262409 不同的数据集训练不同的模型,根据模型进行投票得到最终预测结果 多棵决策树组成森林,每个模型训练集不同和选择 ...
分类:
其他好文 时间:
2019-11-10 19:41:45
阅读次数:
96
在一般认知中,用模型对测试集进行分类预测,结果应该是X或者X'(也可以说是或者否)。根据混淆矩阵算出TP、FP、TN、FN,进一步算出TPR、FPR。一个测试集只会有一对TPR/FPR值,那么ROC曲线就只会有一个点,何谈曲线之说?难道是用多个测试集得到多对TPR/FPR值,来绘制ROC曲线吗?实则 ...
分类:
其他好文 时间:
2019-10-27 12:47:31
阅读次数:
464
[TOC]更新、更全的《机器学习》的更新网站,更有python、go、数据结构与算法、爬虫、人工智能教学等着你:https://www.cnblogs.com/nickchen121/# RANSAC算法线性回归(波斯顿房价预测)虽然普通线性回归预测结果总体而言还是挺不错的,但是从数据上可以看出数据... ...
分类:
编程语言 时间:
2019-10-16 18:03:34
阅读次数:
88
让网络自行预测特征图每个位置的重要性。如果重要则多推理,如果不重要则停止推理。预测结果类似于显著性图。 ...
分类:
Web程序 时间:
2019-10-13 15:23:11
阅读次数:
107
1.程序的大致结构如下图: 2.下面依次列出各个类的代码 ①ILISTDs.cs 这是一个接口类,列出单链表的方法 ②LinkList.cs 单链表的实现类 ③ Node.cs 节点类 ④Program.cs 主程序 ⑤运行结果如下图,和预测结果完全一致 ...
import sys, os sys.path.append('F:\ml\DL\source-code') from dataset.mnist import load_mnist from PIL import Image import numpy as np #pickle提供了一个简单的持久... ...
分类:
其他好文 时间:
2019-09-16 21:30:12
阅读次数:
207
梯度下降法 [TOC] 梯度下降法,是一种基于搜索的最优化方法,最用是最小化一个损失函数。 一、什么是梯度下降? ? 机器学习算法都需要最大化或最小化一个函数,这个函数被称为"目标函数",其中我们一般把最小化的一类函数,称为"损失函数"。它能根据预测结果,衡量出模型预测能力的好坏。在求损失函数最小化 ...
分类:
其他好文 时间:
2019-08-08 19:42:49
阅读次数:
125
''' 集合算法: 1.正向激励 2.自助聚合:每次从总样本矩阵中以有放回抽样的方式随机抽取部分样本构建决策树,这样形成多棵包含不同训练样本的决策树, 以削弱某些强势样本对模型预测结果的影响,提高模型的泛化特性。 3.随机森林:在自助聚合的基础上,每次构建决策树模型时,不仅随机选择部分样本,而且还随... ...
分类:
其他好文 时间:
2019-07-14 17:49:54
阅读次数:
100