数学基础(2节课)微积分极限,e,导数,微分,积分偏导数,方向导数,梯度极值,多元函数极值,多元函数泰勒展开无约束优化,约束优化拉格朗日乘子,对偶问题线性代数矩阵,行列式,初等变换线性相关,线性无关秩,特征值,特征向量正交向量、正交矩阵矩阵分解概率随机变量,概率密度函数,分布函数条件概率,全概率公式...
分类:
其他好文 时间:
2014-10-30 10:16:09
阅读次数:
185
1简介为了理解复杂的数据,人们提出了分层特征提取概念。著名的算法之一是2006年Hinton提出的DeepBeliefNetwork(DBN)。随着训练深层结构的成功,人们又提出了许多深度学习的变体。尽管这些多层算法产生了多层方法在特征提取和提供对复杂问题的有效方法,但并没有告诉我们通过..
分类:
其他好文 时间:
2014-10-05 23:58:49
阅读次数:
344
在armadillo库中,矩阵的LU分解(LU factorisation or LU decomposition)使用lu函数,lu函数有两个版本 1 lu(L,U,P,X) ? ? 其中X是欲进行分解的矩阵,分解生成L,U,P满足 ? ? 1)P是一个置换矩阵(permutati...
分类:
其他好文 时间:
2014-08-01 20:26:32
阅读次数:
464
在矩阵分解中, 有类问题比较常见,即矩阵的元素只有0和1, 对应实际应用中的场景是:用户对新闻的点击情况,对某些物品的购买情况等。基于graphchi里面的矩阵分解结果不太理想,调研了下相关的文献,代码主要实现了基于PLSA的分解方法,详细请参考后面的参考文献
#!/usr/local/bin/python
#-*-coding:utf-8-*-
import sys
import math...
分类:
其他好文 时间:
2014-07-26 02:11:06
阅读次数:
259
1,单值分解:线性代数的重要部分,已经被广泛用于模式识别中的降维和信息检索应用中。
2,独立成分分析
3,非负矩阵分解
4,非线性降维算法:① kernel PCA②基于图的方法(拉普拉斯算子,Local LinearEmbedding (LLE),Isometric Mapping (ISOMAP))
5,离散傅里叶变换
6,离散cos和sin变换
7,THEHADAMARD TRA...
分类:
其他好文 时间:
2014-07-22 14:31:58
阅读次数:
252
主要内容: 1、QR分解定义 2、QR分解求法 3、QR分解与最小二乘 4、Matlab实现 一、QR分解 R分解法是三种将矩阵分解的方式之一。这种方式,把矩阵分解成一个正交矩阵与一个上三角矩阵的积。 QR 分解经常用来解线性最小二乘法问题。QR 分解也是特定特征值算法即QR算法的基础。 定义: 实...
分类:
其他好文 时间:
2014-07-16 18:10:22
阅读次数:
898
使用MATLAB尝试了随机梯度下降的矩阵分解方法,实现了一个比较简单的推荐系统的原理。常用推荐系统的方法有协同过滤, 基于物品内容过滤等等。这次是用的矩阵分解模型属于协同过滤的一种方法,大致原理是通过一定数量的因子来描述各个用户的喜好和各个物品的属性。通过随机梯度下降法分解后得到两个矩阵,一个是用....
分类:
其他好文 时间:
2014-06-21 07:17:05
阅读次数:
346
1.矩阵分解假设一个矩阵Data是m行n列,SVD(奇异值分解)将Data分解为U,E,VT
三个矩阵:Datam*n=Um*kEk*kVTk*nE是一个对角矩阵,对角元素为奇异值,对应Data的奇异值,即Data*DataT特征值的平方2.选取特征下面确定选取哪几维特征实现降维,去除噪声和冗余信息...
分类:
其他好文 时间:
2014-05-31 18:45:57
阅读次数:
327
从矩阵分解的角度来看,LU和Cholesky分解目标在于将矩阵转化为三角矩阵的乘积,所以在LAPACK种对应的名称是trf(Triangular
Factorization)。QR分解的目的在于将矩阵转化成正交矩阵和上三角矩阵的乘积,对应的分解公式是A=Q*R。正交矩阵有很多良好的性质,比如矩阵的逆...
分类:
其他好文 时间:
2014-05-26 13:14:54
阅读次数:
627
接着LU分解继续往下,就会发展出很多相关但是并不完全一样的矩阵分解,最后对于对称正定矩阵,我们则可以给出非常有用的cholesky分解。这些分解的来源就在于矩阵本身存在的特殊的结构。对于矩阵A,如果没有任何的特殊结构,那么可以给出A=L*U分解,其中L是下三角矩阵且对角线全部为1,U是上三角矩阵但是...
分类:
其他好文 时间:
2014-05-14 03:48:31
阅读次数:
451