目录 简述集成学习 Boosting介绍 AdaBoost算法 GBDT算法 总结 一、简述集成学习 上一篇博文已经介绍了:集成算法是由多个弱学习器组成的算法,根据个体学习器的生成方式不同,集成算法分成两类: 个体学习器之间不存在强依赖关系,可以并行化生成每个个体学习器,这一类的代表是Bagging ...
分类:
其他好文 时间:
2020-02-24 00:10:39
阅读次数:
98
目录 简述 K-means聚类 密度聚类 层次聚类 一、简述 聚类算法是常见的无监督学习(无监督学习是在样本的标签未知的情况下,根据样本的内在规律对样本进行分类)。 在监督学习中我们常根据模型的误差来衡量模型的好坏,通过优化损失函数来改善模型。而在聚类算法中是怎么来度量模型的好坏呢?聚类算法模型的性... ...
分类:
编程语言 时间:
2020-02-24 00:03:55
阅读次数:
77
我们知道较早的分类模型——感知机(1957年)是二类分类的线性分类模型,也是后来神经网络和支持向量机的基础。支持向量机(Support vector machines)最早也是是一种二类分类模型,经过演进,现在成为了既能处理多元线性和非线性的问题,也能处理回归问题。在深度学习风靡之前,应该算是最好的... ...
分类:
其他好文 时间:
2020-02-24 00:01:53
阅读次数:
88
目录 感知机模型 感知机模型损失函数 感知机模型损失函数的优化方法 感知机模型的算法 感知机模型的算法对偶形式 我们知道较早的分类模型——感知机(1957年)是二类分类的线性分类模型,也是后来神经网络和支持向量机的基础。 1、感知机模型 感知机模型是一种二分类的线性分类器,只能处理线性可分的问题,感... ...
分类:
编程语言 时间:
2020-02-23 23:55:25
阅读次数:
114
目录 最小二乘法的原理与要解决的问题 最小二乘法的代数法解法 最小二乘法的矩阵法解法 最小二乘法的局限性和适用场景 常见问题 最小二乘法是用来做函数拟合或者求函数极值的方法。在机器学习,尤其是回归模型中,经常可以看到最小二乘法的身影,这里就对我对最小二乘法的认知做一个小结。 一、最小二乘法的原理与要... ...
分类:
其他好文 时间:
2020-02-23 22:09:40
阅读次数:
149
线性回归可以说是机器学习中最基本的问题类型了,这里就对线性回归的原理和算法做一个小结 目录 背景 简述 内容详解 密度聚类 层次聚类 模型效果判断 附件:手写推导过程练习 一、线性回归函数定义 二、线性回归的模型函数和损失函数由来 原因:中心极限定理 实际问题中,很多随机现象可以看做众多因素的独立影... ...
分类:
其他好文 时间:
2020-02-23 22:00:31
阅读次数:
85
目录 简述 梯度下降与梯度上升 梯度下降法算法详解 梯度下降法大家族(BGD,SGD,MBGD) 梯度下降法和其他无约束优化算法的比较 总结 在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法(在【2】中已... ...
分类:
其他好文 时间:
2020-02-23 21:50:51
阅读次数:
65
目标检测和边界框 在图像分类任务里,我们假设图像里只有一个主体目标,并关注如何识别该目标的类别。然而,很多时候图像里有多个我们感兴趣的目标,我们不仅想知道它们的类别,还想得到它们在图像中的具体位置。在计算机视觉里,我们将这类任务称为目标检测(object detection)或物体检测。 目标检测在 ...
分类:
其他好文 时间:
2020-02-20 20:04:45
阅读次数:
110
优化与深度学习 优化与估计 尽管优化方法可以最小化深度学习中的损失函数值,但本质上优化方法达到的目标与深度学习的目标并不相同。 优化方法目标:训练集损失函数值 深度学习目标:测试集损失函数值(泛化性) 1 %matplotlib inline 2 import sys 3 import d2lzh1 ...
分类:
其他好文 时间:
2020-02-20 13:14:49
阅读次数:
93
https://blog.csdn.net/buracag_mc/article/details/100155599 ML Pipelines提供了一组基于DataFrame构建的统一的高级API,可帮助用户创建和调整实用的机器学习流程。 ...
分类:
其他好文 时间:
2020-02-20 10:31:30
阅读次数:
59