码迷,mamicode.com
首页 >  
搜索关键字:训练集    ( 799个结果
python xml解析例子
# -*- coding: utf-8 -*- """ Created on Thu Apr 16 23:18:27 2015 @author: shifeng """ ''' 功能:解析CDR_sample.xml文件,输出格式为DNorm接收的格式,并将训练集的“label”写入到文档中 xml文件:见CSDN资源共享 参考博客:http://www.cnblogs.com/fnng/p/3...
分类:编程语言   时间:2015-04-17 01:17:24    阅读次数:194
Fisher准则线性分类器的Python实现
Fisher准则线性分类器的Python实现Fisher准则线性分类器的Python实现 选取的训练集与测试集 分类决策与分类器 代码 测试集上的结果 本节内容:本节内容是根据上学期所上的模式识别课程的作业整理而来,第二道题目是线性分类器设计,数据集是Iris(鸢尾花的数据集),根据前一题的Kmeans聚类得出的结果,分成训练集与测试集,进行比较。 选取的训练集与测试集 训练集:(选取上一题中的...
分类:编程语言   时间:2015-04-13 09:46:27    阅读次数:992
机器学习方法总结
来源: http://biostar.blog.sohu.com/61246458.html训练:训练集——>特征选取——>训练——>分类器分类:新样本——>特征选取——>分类——>判决最初的数据挖掘分类应用大多都是在这些方法及基于内存基础上所构造的算法。目前数据挖掘方法都要求具有基于外存以处理大规...
分类:其他好文   时间:2015-04-12 16:07:54    阅读次数:588
机器学习-斯坦福:学习笔记5-生成学习算法
生成学习算法本次课程大纲:1、生成学习算法2、高斯判别分析(GDA,Gaussian Discriminant Analysis)-高斯分布(简要)-对比生成学习算法&判别学习算法(简要)3、朴素贝叶斯4、Laplace平滑复习:分类算法:给出一个训练集,若使用logistic回归算法,其工作方式是...
分类:编程语言   时间:2015-04-11 14:48:14    阅读次数:209
【用Python玩Machine Learning】KNN * 代码 * 一
KNN的是“k Nearest Neighbors”的简称,中文就是“最近邻分类器”。基本思路就是,对于未知样本,计算该样本和训练集合中每一个样本之间的距离,选择距离最近的k个样本,用这k个样本所对应的类别结果进行投票,最终多数票的类别就是该未知样本的分类结果。选择什么样的度量来衡量样本之间的距离是关键。 一、从文本中读取样本的特征和分类结果。 ''' kNN: k Nearest N...
分类:编程语言   时间:2015-04-11 13:19:10    阅读次数:214
Adaboost算法初识
1.算法思想很简单:AdaBoost 是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器,即弱分类器,然后把这些弱分类器集合起来,构造一个更强的最终分类器。(三个臭皮匠,顶个诸葛亮)它的自适应在于:前一个基本分类器分错的样本会得到加强,加权后的全体样本再次被用来训练下一个基本分类器。同时,...
分类:编程语言   时间:2015-04-09 21:26:43    阅读次数:278
机器学习 第一讲:线性回归
第一讲:线性回归 Supervised Learning 首先给出一些基本定义,x(i)x^{(i)} 表示输入变量或者输入特征,y(i)y^{(i)} 表示输出变量或者目标值。(x(i),y(i)(x^{(i)}, y^{(i}) 称为一对样本,一组样本 {(x(i),y(i));i=1,2,...,m}\{(x^{(i)}, y^{(i)}); i=1,2,...,m\} 称为训练集,其...
分类:其他好文   时间:2015-04-07 09:47:56    阅读次数:102
SVM十问十答
什么是线性分类器? 线性分类器试图通过训练集中的样本得出一个分类超平面,目标是最大程度地区分训练集中不同类别的样本,最终把这个分类超平面应用于新样本的分类。 SVM相比一般的线性分类器有什么不同? SVM以最大化不同类别之间的间隔为优化目标。 SVM和逻辑回归有什么区别? 逻辑回归通过sigmoid函数缩小了远离分类超平面那些点的信息,而SVM直接忽略了那些点的信...
分类:其他好文   时间:2015-04-06 21:56:14    阅读次数:186
Adaboost 算法
Adaboost 算法 AdaBoost 是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器,即弱分类器,然后把这些弱分类器集合起来,构造一个更强的最终分类器。(很多博客里说的三个臭皮匠赛过诸葛亮) 算法本身是改变数据分布实现的,它根据每次训练集之中的每个样本的分类是否正确,以及上次的总体...
分类:编程语言   时间:2015-04-02 18:15:17    阅读次数:170
分类和预测
分类和数值预测是预测问题的两种主要类型。分类是预测分类(离散、无序的)标号,而预测则是建立连续值函数模型。一、分类问题的步骤:1、使用训练集建立描述预先定义的数据类或概念集的分类器。第一步也称之为“学习步”或者“训练模型阶段”,使用特定的分类算法通过分析从训练集中学习来构造相应的分类器或者分类模型。...
分类:其他好文   时间:2015-03-30 18:11:35    阅读次数:2205
799条   上一页 1 ... 72 73 74 75 76 ... 80 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!