机器学习学习笔记 PRML Chapter 2.0 : Prerequisite 2 -Singular Value Decomposition (SVD) ...
分类:
其他好文 时间:
2016-07-06 01:53:45
阅读次数:
332
版权声明:
本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系
前言:
上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。在上篇文章中便是基于特征值分解的一种解释。特征值和奇异值在大部分人的印象中,...
分类:
其他好文 时间:
2016-06-24 16:04:13
阅读次数:
301
1. 基础回顾 特别详细的总结,参考 http://blog.csdn.net/wangzhiqing3/article/details/7446444 矩阵的奇异值分解 SVD 矩阵与向量相乘的结果与特征值,特征向量有关。 数值小的特征值对矩阵-向量相乘的结果贡献小 1)低秩近似 2)特征降维 2 ...
分类:
编程语言 时间:
2016-06-08 15:54:45
阅读次数:
852
zabbix自动发现硬盘脚本disk_discovery.py[app@data1etc]$catdisk_discovery.py
#/usr/bin/python
importsubprocess
importjson
args="cat/proc/diskstats|grep-E‘\ssd[a-z]\s|\sxvd[a-z]\s|\svd[a-z]\s‘|awk‘{print$3}‘|sort|uniq2>/dev/null"
t=subprocess.Popen(args,sh..
分类:
其他好文 时间:
2016-05-24 17:24:30
阅读次数:
510
SVD(Singular Value Decomposition)奇异值分解: 优点:用来简化数据,去除噪声,提高算法的结果。 缺点:数据的转换可能难以理解。 适用数据类型:数值型数据。 一、SVD与推荐系统 下图由餐馆的菜和品菜师对这些菜的意见组成,品菜师可以采用1到5之间的任意一个整数来对菜评级 ...
分类:
其他好文 时间:
2016-05-18 23:35:58
阅读次数:
273
机器学习课堂笔记(十四)
使用低维数据来近似表示高维数据
通过数据可视化来获得降维数据的物理意义
Σ\Sigma和∑ni=1\sum_{i=1}^n不同
Σ\Sigma的计算对于所有的样本值
此时计算的是一个样本值x(i)x^{(i)}的降维z(i)z^{(i)}
保留99%的差异性
[U,S,V] = svd(Sigma)调用一次
使用训练集运行PCA,这样...
分类:
其他好文 时间:
2016-05-07 09:47:06
阅读次数:
117
特征值分解如果说一个向量v是方阵A的特征向量,将一定可以表示成下面的形式:
这时候λ就被称为特征向量v对应的特征值,一个矩阵的一组特征向量是一组正交向量。特征值分解是将一个矩阵分解成下面的形式:
其中Q是这个矩阵A的特征向量组成的矩阵,Σ是一个对角阵,每一个对角线上的元素就是一个特征值。我这里引用了一些参考文献中的内容来说明一下。首先,要明确的是,一个矩阵其实就是...
分类:
其他好文 时间:
2016-04-29 18:24:09
阅读次数:
123
以MovieLens电影推荐为例,SVD(Singular Value Decomposition)的想法是根据已有的评分情况,分析出评分者对各个因子的喜好程度以及电影包含各个因子的程度,最后再反过来根据分析结果。使用SVD对问题进行建模SVD的想法抽象点来看就是将一个N行M列的评分矩阵R(R[u][i]代表第u个用户对第i个物品的评分),分解成一个N行F列的用户因子矩阵P(P[u][k]表示用户u...
分类:
其他好文 时间:
2016-04-29 18:15:20
阅读次数:
200
特征值分解如果说一个向量v是方阵A的特征向量,将一定可以表示成下面的形式:
这时候λ就被称为特征向量v对应的特征值,一个矩阵的一组特征向量是一组正交向量。特征值分解是将一个矩阵分解成下面的形式:
其中Q是这个矩阵A的特征向量组成的矩阵,Σ是一个对角阵,每一个对角线上的元素就是一个特征值。我这里引用了一些参考文献中的内容来说明一下。首先,要明确的是,一个矩阵其实就是...
分类:
其他好文 时间:
2016-04-26 20:41:54
阅读次数:
248