题目描述 HZ偶尔会拿些专业问题来忽悠那些非计算机专业的同学。今天测试组开完会后,他又发话了:在古老的一维模式识别中,常常需要计算连续子向量的最大和,当向量全为正数的时候,问题很好解决。但是,如果向量中包含负数,是否应该包含某个负数,并期望旁边的正数会弥补它呢?例如:{6,-3,-2,7,-15,1 ...
分类:
编程语言 时间:
2018-10-19 23:41:23
阅读次数:
262
题目描述 HZ偶尔会拿些专业问题来忽悠那些非计算机专业的同学。今天测试组开完会后,他又发话了:在古老的一维模式识别中,常常需要计算连续子向量的最大和,当向量全为正数的时候,问题很好解决。但是,如果向量中包含负数,是否应该包含某个负数,并期望旁边的正数会弥补它呢?例如:{6,-3,-2,7,-15,1 ...
分类:
编程语言 时间:
2018-10-19 00:02:44
阅读次数:
180
设有n个可用作分类的测量值,为了在不降低(或尽量不降低)分类精度的前提下,减小特征空间的维数以减少计算量,需从中直接选出m个作为分类的特征。 问题:在n个测量值中选出哪一些作为分类特征,使其具有最小的分类错误? 从n个测量值中选出m个特征,一共有 中可能的选法。 一种“穷举”办法:对每种选法都用训练 ...
分类:
其他好文 时间:
2018-10-16 16:03:56
阅读次数:
145
特征选择和提取 特征选择和提取是模式识别中的一个关键问题 前面讨论分类器设计的时候,一直假定已给出了特征向量维数确定的样本集,其中各样本的每一维都是该样本的一个特征; 这些特征的选择是很重要的,它强烈地影响到分类器的设计及其性能; 假若对不同的类别,这些特征的差别很大,则比较容易设计出具有较好性能的 ...
分类:
其他好文 时间:
2018-10-16 15:57:39
阅读次数:
177
全称:Karhunen-Loeve变换(卡洛南-洛伊变换) 前面讨论的特征选择是在一定准则下,从n个特征中选出k个来反映原有模式。 这种简单删掉某n-k个特征的做法并不十分理想,因为一般来说,原来的n个数据各自在不同程度上反映了识别对象的某些特征,简单地删去某些特征可能会丢失较多的有用信息。 如果将 ...
分类:
其他好文 时间:
2018-10-16 15:53:36
阅读次数:
275
3.8.1梯度法 定义: 梯度是一个向量,它的最重要性质就是指出了函数f在其自变量y增加时最大增长率的方向。 负梯度指出f的最陡下降方向 利用这个性质,可以设计一个迭代方案来寻找函数的最小值。 采用梯度法求解的基本思想 对感知器算法 式中的w(k)、xk随迭代次数k而变,是变量。 定义一个对错误分类 ...
分类:
编程语言 时间:
2018-10-15 12:16:46
阅读次数:
254
《模式识别中文版(希)西奥多里蒂斯》 《学习OpenCV(中文版)》 矩阵计算 英文版 第四版 Matrix Computations OpenCV 3.x with Python By Example(2nd) 扫码时备注或说明中留下邮箱付款后如未回复请至https://shop135452397 ...
分类:
其他好文 时间:
2018-10-14 23:09:10
阅读次数:
231
一. 引子——高维空间与西瓜 这学期选课有一门“网络数据挖掘”,原来特别担心与本学期选的一门“模式识别与数据挖掘”在一定程度上相重复,不过还好,这个老师讲课不是照本宣科,讲得更多的是个人的理解还有从业经验。 今天讲得挺有意思的一点是,在讲到聚类的时候,老师有些嗤之以鼻,说在高维空间内,聚类算法可能并 ...
分类:
其他好文 时间:
2018-10-12 23:55:52
阅读次数:
224
恢复内容开始 出发点: 线性判别函数在进行分类决策时是最简单有效的,但在实际应用中,常常会出现不能用线性判别函数直接进行分类的情况。 采用广义线性判别函数的概念,可以通过增加维数来得到线性判别,但维数的大量增加会使在低维空间里在解析和计算上行得通的方法在高维空间遇到困难,增加计算的复杂性。 引入分段 ...
分类:
其他好文 时间:
2018-10-08 15:59:26
阅读次数:
478
3.1线性判别函数 3.1.1两类问题的判别函数 (1)以二维模式样本为例 若x是二维模式样本x = (x1 x2)T,用x1和x2作为坐标分量,得到模式的平面图: 这时,若这些分属于ω1和ω2两类的模式可用一个直线方程d(x)=0来划分 d(x) = w1x1 + w2x2 + w3 = 0 其中 ...
分类:
其他好文 时间:
2018-09-28 20:52:38
阅读次数:
281