Reference:李航 --《统计学习方法》 10 种主要的统计学习方法概括总结 方法 适用问题 模型特点 模型类型 学习策略 学习的损失函数 学习算法 感知机 二类分类 分离超平面 判别模型 极小化误分点到超平面距离 误分点到超平面距离 随机梯度下降 k 近邻 多类分类,回归 特征空间,样本点 ...
分类:
其他好文 时间:
2020-07-06 14:36:46
阅读次数:
104
1、概述 随机森林是决策树的集合。随机森林是用于分类和回归的最成功的机器学习模型之一。他们结合了许多决策树,以减少过度拟合的风险。像决策树一样,随机森林处理分类特征,扩展到多类分类设置,不需要特征缩放,并且能够捕获非线性和特征交互。 spark.mllib支持使用连续和分类功能对二元和多类分类以及进 ...
分类:
其他好文 时间:
2020-03-04 12:28:12
阅读次数:
105
1、概述 决策树及树集(算法)是用于机器学习任务的分类和回归的流行方法。决策树被广泛使用,因为它们易于解释,处理分类特征,扩展到多类分类设置,不需要特征缩放,并且能够捕获非线性和特征交互。树集分类算法(例如随机森林和boosting)在分类和回归任务中表现最佳。 spark.ml实现使用连续和分类特 ...
分类:
其他好文 时间:
2020-03-03 17:46:25
阅读次数:
96
二分类、多分类与多标签的基本概念 二分类:表示分类任务中有两个类别,比如我们想识别一幅图片是不是猫。也就是说,训练一个分类器,输入一幅图片,用特征向量x表示,输出是不是猫,用y=0或1表示。二类分类是假设每个样本都被设置了一个且仅有一个标签 0 或者 1。 多类分类(Multiclass class ...
分类:
其他好文 时间:
2019-10-27 20:42:37
阅读次数:
694
使用autograd来自动求导 在机器学习中,我们通常使用梯度下降来更新模型参数从而求解。损失函数关于模型参数的梯度指向一个可以降低损失函数值的方向,我们不断地沿着梯度的方向更新模型从而最小化损失函数。虽然梯度计算比较直观,但对于复杂的模型,例如多达数十层的神经网络,手动计算梯度非常困难。 为此MX ...
分类:
其他好文 时间:
2019-09-01 13:03:57
阅读次数:
121
使用NDArrary来处理数据 对于机器学习来说,处理数据往往是万事之开头。它包含两个部分:数据读取和当数据已经在内存里时如何处理。本章将关注后者。我们首先介绍 ,这是MXNet储存和变化数据的主要工具。如果你之前用过 ,你会发现 和`Numpy NDArray NDArray`能更好地支持机器学习 ...
分类:
其他好文 时间:
2019-08-30 22:37:59
阅读次数:
59
在前一个博客中,我们已经对MNIST 数据集和TensorFlow 中MNIST 数据集的载入有了基本的了解。本节将真正以TensorFlow 为工具,写一个手写体数字识别程序,使用的机器学习方法是Softmax 回归。 一、Softmax回归的原理 Softmax 回归是一个线性的多类分类模型,实 ...
分类:
其他好文 时间:
2019-05-05 16:02:28
阅读次数:
154
首先,说下多类分类和多标签分类的区别 多标签分类: 一个样本可以属于多个类别(或标签),不同类之间是有关联的,比如一个文本被被划分成“人物”和“体育人物”两个标签。很显然这两个标签不是互斥的,而是有关联的多类分类: 一个样本属于且只属于多个分类中的一个,一个样本只能属于一个类,不同类之间是互斥的,比 ...
分类:
其他好文 时间:
2018-11-14 10:25:53
阅读次数:
1826
判别模型 误分点到超平面的距离 对偶解法(Gram矩阵) 多类分类, 回归 特征空间, 样本点 判别模型 三要素: 1、距离度量:曼哈顿和欧氏距离 2、k值选取:(估计误差和近似误差),交叉验证求最优 3、分类决策:多数表决 kd树(构造和搜索,适用于训练实例远大于空间维数) 特征与类别的联合概率 ...
分类:
其他好文 时间:
2018-08-29 19:57:48
阅读次数:
203
https://blog.csdn.net/kunlong0909/article/details/16805889 Table of Contents 1 前言 2 LTR流程 3 训练数据的获取4 特征抽取 3.1 人工标注 3.2 搜索日志 3.3 公共数据集 5 模型训练 5.1 训练方法 ...
分类:
其他好文 时间:
2018-07-19 13:39:18
阅读次数:
194