QR分解法是目前求一般矩阵全部特征值的最有效并广泛应用的方法,一般矩阵先经过正交相似变化成为Hessenberg矩阵,然后再应用QR方法求特征值和特征向量。它是将矩阵分解成一个正规正交矩阵Q与上三角形矩阵R,所以称为QR分解法,与此正规正交矩阵的通用符号Q有关。...
分类:
其他好文 时间:
2015-08-27 11:02:30
阅读次数:
1696
一、向量
最大10的数的索引(位置),可先按降序排序,得到索引号,然后将前10个取出即可。
建议方法:
order(x,decreasing=TRUE)[1:10]
过程详解:
1、测试数据x
> x
[1] 0.00 0.00 0.00 0.00 0.00 0.00 0.06 0.09 0.20 0.09 0.08 0.14 0.14 0.23
[15] 0.08 0.06 ...
分类:
编程语言 时间:
2015-08-27 02:15:02
阅读次数:
773
一、sparse()的稀疏矩阵简单运用1.>> A = [0, 0, 0, 0;0, 0, 1, 0;0, 0, 0, 0;0, 1, 0, 2];>> sparse(A)ans =(4,2) 1(2,3) 1(4,4) 2二.S = sparse(i,j,s,m,n,nzmax)由向量i,j,s ...
分类:
其他好文 时间:
2015-08-26 22:16:13
阅读次数:
163
一、reshape() 对于这个函数,就是重构矩阵。(1)要求:重构前后的矩阵元素个数一致。如3*4矩阵可以重构成2*6,2*3*2等。(2)重构方法:先按列将矩阵转换为向量,然后在向量的基础之上,又按照新矩阵的列截取组成。例如,3*4矩阵可以重构成2*6: 1 2 3 4 5 6...
分类:
其他好文 时间:
2015-08-26 22:02:12
阅读次数:
162
写在之前:前些文章曾经细数过从决策树、贝叶斯算法等一些简单的算法到神经网络(BP)、支持向量机(SVM)、adaboost等一些较为复杂的机器学习算法(对其中感兴趣的朋友可以往前的博客看看),各种算法各有优缺点,基本上都能处理线性与非线性样本集,然通观这些算法来看,个人感觉对于数据(无论线性还是非线性)的分类上来说,里面比较好的当数BP、SVM、adaboost元算法这三种了,由于前面在介绍相应算法...
分类:
编程语言 时间:
2015-08-26 17:55:03
阅读次数:
2919
《全连接的BP神经网络》 本文主要描述全连接的BP神经网络的前向传播和误差反向传播,所有的符号都用Ng的Machine learning的习惯。下图给出了某个全连接的神经网络图。1前向传播1.1前向传播分别计算第l层神经元的输入和输出;1.1.1偏执项为1时向量整体形式:分量形式: 1.1.2偏执项...
分类:
其他好文 时间:
2015-08-26 17:03:11
阅读次数:
642
《全连接的BP神经网络》 本文主要描述全连接的BP神经网络的前向传播和误差反向传播,所有的符号都用Ng的Machine learning的习惯。下图给出了某个全连接的神经网络图。 前向传播 前向传播 分别计算第l层神经元的输入和输出; 偏执项为1时 向量整体形式: 分量形式: 偏执项为b时 向量整体...
分类:
其他好文 时间:
2015-08-26 15:18:04
阅读次数:
223
通过一系列的margin最优化的推导,从对偶问题出发,得到了Support vector,然后使用了kernel trick,得到了kernel support vector machine...
分类:
其他好文 时间:
2015-08-26 12:08:14
阅读次数:
235
参考:理解SVM三层境界 原来的分类函数: 通过对偶问题求解得到: 所以分类函数被转换成: 线性核函数的预测: 使用线性核函数(相当于没有使用核函数)的情况下,推导到此结束。对于新点x的预测,只需要计算它与训练数据点的内积即可,而所有的非支持向量所对应的系数都是等于0的,因此对于新点的内积计算实际只...
分类:
其他好文 时间:
2015-08-26 09:25:41
阅读次数:
832
这几天一直在看计算几何,看了几道算法题,把自己弄得有点头晕,在这里理理自己的头绪,也为大家提供点东西。1.计算几何最基础的东西“向量”,接下来为大家理理向量先:以向量a(c,d),b(e,f)举例;(1)判断两个向量是否平行:(即对直线而言是斜率相等)a//b => a x b = 0 => c*f...
分类:
其他好文 时间:
2015-08-25 23:19:15
阅读次数:
126