码迷,mamicode.com
首页 >  
搜索关键字:svd    ( 276个结果
如何轻松干掉svd(矩阵奇异值分解),用代码说话
svd我认识我机器学习里面最扯淡的玩意了。尼玛。老实说,好多机器学习的书老是在扯svd有多高端,然后看了netflix电影推荐大赛,哇塞,冠军队就是用svd+做的。然后狠狠的下载了所有他们的论文,硬是没看明白。后来居然对svd有恐惧感。感觉这个玩意好高端似的。你看他啊,它能提高预测精度,它好...
分类:其他好文   时间:2015-08-05 23:58:46    阅读次数:2418
LDA,PCA阅读资料
1,线性判别分析(Linear Discriminant Analysis)(一)2,机器学习中的数学(4)-线性判别分析(LDA), 主成分分析(PCA)3,Machine Learning in Action – PCA和SVD
分类:其他好文   时间:2015-07-28 12:31:21    阅读次数:122
PCA和SVD简述
PCAPCA全称为Principal Components Analysis,即主成分分析,是一种常用的降维方法。PCA将原来众多具有一定相关性的指标重新组合成一组新的相互无关的综合指标来代替原来的全部指标。将n维特征映射到k维全新的正交特征上。PCA的实现一般有两种:特征值分解和SVD.原理对原始...
分类:其他好文   时间:2015-07-25 12:04:44    阅读次数:202
奇异值分解(We Recommend a Singular Value Decomposition)
奇异值分解(We Recommend a Singular Value Decomposition)原文作者:David Austin原文链接:http://www.ams.org/samplings/feature-column/fcarc-svd译者:richardsun(孙振龙)在这篇文章中,...
分类:其他好文   时间:2015-07-22 22:13:12    阅读次数:218
机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用
机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com前言: 上一次写了关于P...
分类:其他好文   时间:2015-07-21 22:04:42    阅读次数:145
SVD奇异值分解的几何物理意义资料汇总
SVD奇异值分解的几何物理意义资料汇总学习SVD奇异值分解的网上资料汇总:1、关于svd的一篇概念文,这篇文章也是后续几篇文章的鼻祖~http://www.ams.org/samplings/feature-column/fcarc-svd2、关于SVD物理意义分析比较透彻的文章http://www...
分类:其他好文   时间:2015-07-21 21:47:02    阅读次数:125
Mathmatica SVD分解
mathmathica初识。Mathmatica进行SVD分解,利用Help帮助获取SVD分解的函数SingularValueDecomposition[]导入数据:G=Import[“D:\\mathmatica\17.txt”,"Table”],此时以二维数组格式将数据储存之G数组中。进行SVD分解:[U,S,Vt]=SingularValueDecomposition[G];以矩阵..
分类:其他好文   时间:2015-07-20 17:00:37    阅读次数:197
范数、奇异值
【范数】 格式:n=norm(A,p) 功能:norm函数可计算几种不同类型的矩阵范数,根据p的不同可得到不同的范数 以下是Matlab中help norm 的解释 NORM Matrix or vector norm. For matrices… NORM(X) is the largest singular value of X, max(svd(X))....
分类:其他好文   时间:2015-07-08 19:06:48    阅读次数:156
PRML 6: SVD and PCA
PRML学习笔记:特征值分解、奇异值分解与 PCA
分类:其他好文   时间:2015-06-17 13:08:27    阅读次数:217
UFLDL教程笔记及练习答案二(预处理:主成分分析和白化)
首先将本节主要内容记录下来,然后给出课后习题的答案。 笔记: 1:首先我想推导用SVD求解PCA的合理性。        PCA原理:假设样本数据X∈Rm×n,其中m是样本数量,n是样本的维数。PCA降维的目的就是为了使将数据样本由原来的n维降低到k维(k<n)。方法是找数据随之变化的主轴,在Andrew Ng的网易公开课上我们知道主方向就是X的协方差所对应的最大特征值所对应的特征向量的...
分类:其他好文   时间:2015-06-09 11:56:02    阅读次数:200
276条   上一页 1 ... 21 22 23 24 25 ... 28 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!