码迷,mamicode.com
首页 >  
搜索关键字:训练样本    ( 415个结果
Matlab-bp神经网络
一、工作流程 1、加载数据,产生训练集与测试集(验证集) 首先加载样本,其中样本的输入叫做:特征(变量),其输出值叫做:理想值,将样本分为训练样本(学习所用)和测试样本(效果测试仿真所用) 需要注意的是样本矩阵的列代表的是样本的个数,行代表每个样本的数据 代码如下: load spectra_dat ...
分类:其他好文   时间:2018-03-25 15:49:00    阅读次数:1410
K-Means 聚类
机器学习中的算法主要分为两类,一类是监督学习,监督学习顾名思义就是在学习的过程中有人监督,即对于每一个训练样本,有对应的标记指明它的类型。如识别算法的训练集中猫的图片,在训练之前会人工打上标签,告诉电脑这些像素组合在一起,里面包含了一只猫。而自然界中更多的数据样本,事实上是没有这些标记的,而我们针对 ...
分类:其他好文   时间:2018-03-24 20:45:05    阅读次数:214
模式识别 - 决策树问题研究
数据分析和判别的过程中,存在数值化特征和非数值化特征。 对非数值化特征,使用人工神经网络或支持向量机则需要对数据进行编码后进行分类,但是分明显编码之后大幅度增加了数据的维度。因此引入决策树的方法。 决策树是一种利用一定的训练样本从数据中学习规则的模型,很明显他是一种有监督学习(supervised ...
分类:其他好文   时间:2018-03-22 17:22:04    阅读次数:163
吴恩达机器学习第5周Neural Networks(Cost Function and Backpropagation)
5.1 Cost Function 假设训练样本为:{(x1),y(1)),(x(2),y(2)),...(x(m),y(m))} L = total no.of layers in network sL= no,of units(not counting bias unit) in layer L ...
分类:Web程序   时间:2018-03-21 22:25:50    阅读次数:322
keras神经网络开发知识笔记
mnist数据集获取60000个训练样本和10000个测试样本,样本为0-9十个数字,用全连接神经网络进行训练,并测试结果。 例程采用60000个数据样本进行训练,对于一般的电脑来说,这样训练会比较费时间,学习测试较慢 所以,可以加入以下几行代码: 依次理解笔记: 为model添加Dense层,即全 ...
分类:其他好文   时间:2018-03-20 00:46:36    阅读次数:1011
A brief introduction to weakly supervised learning(简要介绍弱监督学习)
by 南大周志华 摘要 监督学习技术通过学习大量训练数据来构建预测模型,其中每个训练样本都有其对应的真值输出。尽管现有的技术已经取得了巨大的成功,但值得注意的是,由于数据标注过程的高成本,很多任务很难获得如全部真值标签这样的强监督信息。因此,能够使用弱监督的机器学习技术是可取的。本文综述了弱监督学习 ...
分类:其他好文   时间:2018-03-14 12:46:10    阅读次数:1961
第二节,神经网络中反向传播四个基本公式证明——BackPropagation
参考文章 神经网络基础 Neural Networks and Deep Learning. Michael A. Nielsen 一文弄懂神经网络中的反向传播法:讲的很详细,用实例演示了反向传播法中权重的更新过程,但是未涉及偏置的更新 假设一个三层的神经网络结构图如下: 对于一个单独的训练样本x其 ...
分类:其他好文   时间:2018-03-10 00:24:15    阅读次数:514
Knn和K-means
先开个标题,以后慢慢填充。 k近邻算法(knn)属于监督学习 一、 三个关键点:1、k的取值,当k值较小时,选取点较少,相当于会有在较小的范围内进行学习预测,学习误差会减小,但是估计误差会增大,因为训练样本中存在噪声,选取过小的区域,噪声干扰的权重会较大,因为影响泛化能力,k减小意味整体模型复杂,容 ...
分类:其他好文   时间:2018-03-09 11:13:38    阅读次数:161
class-提升方法Boosting
Boosting在分类问题中,通过改变训练样本的权重,学习多个分类器,并将这些分类器进行线性组合,提高分类性能。AdaBoost最具代表性,由Freund和Schapire在1995年提出;Boost树在2000年由Friedman提出。 ...
分类:其他好文   时间:2018-03-08 20:18:27    阅读次数:247
决策树之剪枝
在决策树的学习过程中,为了尽可能正确分类训练样本,节点划分过程将不断重复,有时会造成决策树分支过多,这是可能因为训练样本学的“太好了”,以至于把训练集自身的一些特点当作所有数据都具有的一般性质而导致过拟合,而剪枝是决策树学习算法应对“过拟合”的主要手段,所以我们可以通过主动去掉一些分支来降低过拟合的 ...
分类:其他好文   时间:2018-03-07 17:03:39    阅读次数:282
415条   上一页 1 ... 13 14 15 16 17 ... 42 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!