赌徒都相信“初学者总是有运气”的。几乎所有的赌徒都认为“虽然后来运气会慢慢变差,但是刚开始赌的时候总是很走运的”。抛开职业赌场,庄家放长线吊大鱼的不算。就算在股市上也经常有这种案例,新人入行的时候,运气都特别的好。是否真有新手运气这一回事呢?...
分类:
其他好文 时间:
2014-10-01 23:19:22
阅读次数:
585
支持向量机(SupportVectorMachine)是Cortes和Vapnik于1995年首先提出的,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中[10]。支持向量机方法是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有..
分类:
其他好文 时间:
2014-10-01 01:07:40
阅读次数:
234
引言在模式识别中,经常碰到协方差矩阵这个概念,以前一直没搞懂,现在又碰到这个破玩意了,决定把他搞懂,下面就是做的笔记,与大家分享一下均值:标准差:方差:均值描述的是样本集合的样本的平均值,即平均水平.标准差给我们描述的则是样本集合的各个样本点到均值的平均距离,..
分类:
其他好文 时间:
2014-09-28 11:11:41
阅读次数:
281
Rsession让Java调用R更简单R的极客理想系列文章,涵盖了R的思想,使用,工具,创新等的一系列要点,以我个人的学习和体验去诠释R的强大。R语言作为统计学一门语言,一直在小众领域闪耀着光芒。直到大数据的爆发,R语言变成了一门炙手可热的数据分析的利器。随着越来越多的工程背景的人的加入,R语言的社...
分类:
编程语言 时间:
2014-09-27 01:31:39
阅读次数:
419
贝叶斯统计是基于贝叶斯定理的一种经典的统计学习方法。假定样本为X,参数为θ,则贝叶斯统计为:P(θ|X)=P(X|θ)*P(θ)/P(X)。其中,P(θ)为先验分布,P(X|θ)表示似然概率,P(θ|X)表示后验分布。在贝叶斯统计中,最重要的一个问题是关于先验分布的选择,它会在很大程度上影响最终结果...
分类:
其他好文 时间:
2014-09-23 21:44:35
阅读次数:
177
??
3-5 学生成绩统计
Time Limit: 1000MS Memory limit: 65536K
题目描述
通过本题目练习可以掌握对象数组的用法,主要是对象数组中数据的输入输出操作。
设计一个学生类Student
它具有私有的数据成员:学号、姓名、数学成绩、英语成绩、计算机成绩;具有公有的成员函数:求三门课总成绩的函数int sum();
求三门课平均成绩...
分类:
其他好文 时间:
2014-09-20 19:50:59
阅读次数:
361
《统计学习方法》笔记书籍ISBN:978-7-302-27595-4 第3章 k近邻法P37 3.1节 k近邻算法k近邻算法简单、直观:给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的k个实例,这k个实例的多数属于某个类,就把该输入实例分为这个类。算法描述如下:输入:训练数据集...
分类:
其他好文 时间:
2014-09-20 18:39:39
阅读次数:
1685
如何衡量离散程度衡量指标 离散系数,离散系数又称变异系数,是统计学当中的常用统计指标,主要用于比较不同水平的变量数列的离散程。 离散系数指标有:全距(极差)系数、平均差系数、方差系数和标准差系数等。常用的是标准差系数,用CV(Coefficient of Variance)表示。标准差系数 C...
分类:
其他好文 时间:
2014-09-18 23:31:44
阅读次数:
441
课程简介:
本讲通过回顾上一讲内容,引出了VC维的定义,它是由统计学习理论定义的有关函数集学习性能的一个重要指标。并通过例子证明函数集的VC维就是它能打散的最大样本数目。课程最后介绍VC维的应用,指出它反映了函数集的学习能力,VC维越大则学习机器越复杂...
分类:
其他好文 时间:
2014-09-11 23:57:02
阅读次数:
573
1、概率密度函数
在分类器设计过程中(尤其是贝叶斯分类器),需要在类的先验概率和类条件概率密度均已知的情况下,按照一定的决策规则确定判别函数和决策面。但是,在实际应用中,类条件概率密度通常是未知的。那么,当先验概率和类条件概率密度都未知或者其中之一未知的情况下,该如何来进行类别判断呢?其实,只要我们能收集到一定数量的样本,根据统计学的知识,可以从样本集来推断总体概率分布。这种估计方法,通常称之为...
分类:
其他好文 时间:
2014-09-10 14:13:20
阅读次数:
294