码迷,mamicode.com
首页 >  
搜索关键字:监督学习    ( 1006个结果
K-means clustering (K-means聚类)
问题:K-所有值聚类是无监督学习算法设数据集。当中,。如果这个数据能够分为类。把这个问题模型化:,当中代表第类的聚点(中心点、均值)。该模型能够用EM算法进行训练:初始化,。E步:固定。最小化,显然。当中。M步:固定。最小化,,。直至收敛。——————————————————————————————...
分类:其他好文   时间:2015-07-30 16:53:25    阅读次数:134
k近邻与kd树
k近邻是一种特别简单的有监督学习算法。给定一个带标签的训练数据集,从中选择与预测样本最近的k个训练样本,用这k个样本投票决定预测样本标签。 k近邻法三要素:距离度量,k值选择和分类决策规则为了提高k近邻搜索效率,比较常用的就是线性扫描和kd树(二叉树) kd树构造:对每个维度的特征依次寻找中位数划分子集,并以此中位数作为节点 代码: pass kd树搜索代码: 主要就是舍弃当前兄弟节点与...
分类:其他好文   时间:2015-07-29 19:17:31    阅读次数:125
一元线性回归模型与最小二乘法及其C++实现
原文:http://blog.csdn.net/qll125596718/article/details/8248249 监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可...
分类:编程语言   时间:2015-07-12 00:03:50    阅读次数:170
【MATLAB】Machine Learning (Coursera Courses Outline & Schedule)
主要分享了Coursera 机器学习相关课程材料,包括练习题与我的Matlab解答。 课程涉及技术:梯度下降、线性回归、监督/非监督学习、分类/逻辑回归、正则化、神经网络、梯度检验/数值计算、模型选择/诊断、学习曲线、评估度量、SVM、K-Means聚类、PCA、Map Reduce & Data ...
分类:系统相关   时间:2015-07-11 06:41:10    阅读次数:442
C4.5算法
【适用范围】处理分类问题,只要目标问题的类间边界能用树型分解方式或规则判别方式来确定,就可以使用C4.5算法【属性】监督学习【基本思想】给定数据集,所有实例都由一组属性来描述,每个实例仅属于一个类别,在给定数据集上运行C4.5算法可以学习得到一个从属性值到类别的映..
分类:编程语言   时间:2015-07-10 17:03:36    阅读次数:230
监督学习与非监督学习的区别
以下是摘抄自知乎上对监督学习与非监督学习的总结,觉得写得很形象,于是记下:这个问题可以回答得很简单:是否有监督(supervised),就看输入数据是否有标签(label)。输入数据有标签,则为有监督学习,没标签则为无监督学习首先看什么是学习(learning)?一个成语就可概括:举一反三。此处以高...
分类:其他好文   时间:2015-07-07 16:20:09    阅读次数:196
机器学习笔记—-监督学习与无监督学习的异同
**机器学习笔记—-监督学习与无监督学习的异同**有监督学习在监督学习中,输入数据和输出数据存在某种关系,即在已经给定的数据集下,对应的正确输出结果,已经大约知道是什么样子了。有监督学习常常被归类为 回归 和 分类 问题。在回归问题中,我们希望得到连续值的输出预测值,即,使用某些连续函数来映射输入值。在分类问题中,则希望获得的是离散的预测值。将输入值映射到离散的种类上。...
分类:其他好文   时间:2015-07-06 17:53:46    阅读次数:124
CNN卷积神经网络学习笔记1:背景介绍
Convolutional Neural Network 卷积神经网络是基于人工神经网络提出的。人工神经网络模拟人的神经系统,由一定数量的神经元构成。在一个监督学习问题中,有一组训练数据(xi,yi)(x_i,y_i),x是样本,y是label,把它们输入人工神经网络,会得到一个非线性的分类超平面hw,b(x)h_{w,b}(x),在这篇笔记中先梳理一下传统人工神经网络的基本概念,再基于传统人工神经...
分类:其他好文   时间:2015-07-05 15:04:01    阅读次数:1102
斯坦福《机器学习》Lesson1-3感想-------3、线性回归二
从上一篇可知,在监督学习里最重要的就是确定假想函数h(θ),即通过使得代价函数J(θ)最小,从而确定h(θ). 上一篇通过梯度下降法求得J(θ)最小,这篇我们将使用矩阵的方法来解释。   1、普通最小二乘法 利用矩阵的方式,m个训练集(x,y)可以如下表示: 因此,所以 根据 可知, 为使J(θ)最小,通过求导推导可得: ...
分类:其他好文   时间:2015-07-02 12:09:01    阅读次数:207
Naive Bayes 笔记
Naive Bayes (朴素贝叶斯) 属于监督学习算法, 它通过计算测试样本在训练样本各个分类中的概率来确定测试样本所属分类, 取最大概率为其所属分类.优点在数据较少的情况下仍然有效,可以处理多类别问题缺点对输入数据的准备方式较为敏感适用数据类型标称型基础概念1. 条件概率P(A|B)表示事件B已...
分类:其他好文   时间:2015-06-27 19:44:26    阅读次数:115
1006条   上一页 1 ... 85 86 87 88 89 ... 101 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!