码迷,mamicode.com
首页 > 编程语言 > 详细

各种算法的优缺点:

时间:2016-04-20 11:13:25      阅读:541      评论:0      收藏:0      [点我收藏+]

标签:

1.SRC

1)、SRC对测试集中的噪声比较鲁棒,但是当训练集中同样含有噪声时,效果往往较差,因为SRC需要用一个纯净的训练集来训练一个非常好的字典。

【原话:Bing-Kun, B., Guangcan, L., Richang, H., Shuicheng, Y. and Changsheng, X. (2013) General subspace learning with corrupted training data via graph embedding, IEEE Trans. on Image Process., 22, 4380-4393.】 Representation Classifier (SRC) [24] is a robust supervised method and can correct the corruptions possibly existing in testing data, but cannot well handle the cases where the training data themselves are corrupted [25].

2 PCA

PCA是使用最广泛的降维方法和误差校正方法,然而实际应用中,当存在gross corruptions(污染,遮挡)时,PCA不能很好的抓住数据的真实子空间结构,因此效果比较差,特别是遮挡幅值较大时,效果更差。

3 RPCA

RPCA正是为了处理PCA的遮挡等问题而提出来的。

1)能够很好的处理稀疏噪声问题,但是他是一种无监督方法,无法利用标签信息来增加识别率。

2)不能处理新样本,即使能够处理新样本,每来一个新样本,所有训练样本都需要被重新计算,很耗时间了吧~

RPCA的一种处理新样本的方法是,根据训练样本得到的子空间矩阵Y=U∑V’,得到投影矩阵U来处理新样本;不过这有个缺点就是这个投影矩阵并不能很好的处理原始训练样本矩阵X,证明:主分量为UU*X,误差E=X-UU*X,此时这个误差E并不是稀疏的。

3)核约束的优点:能够发现数据类间的低秩结构

4、图嵌入方法,PCA,LDA,NMF,MFA,MNGE,PNGE等

1)训练集有遮挡情况下,效果不好。

5、线性回归方法

1)类标貌似没有中心化。但是文献【Cai, X., Ding, C., Nie, F. and Huang, H. (2013) On the equivalent of low-rank linear regressions and linear discriminant analysis based regressions. In: Proceedings of ACM SIGKDD Int. Conf. Knowl. Discovery Data Mining. 1124-1132.】提到只要训练样本矩阵X是中心化的,那么类标矩阵Y是否中心化是等价的。

6、LDA

(1)ratio-of-trace还是trace-of-ratio问题,一般而言trace-of-ratio等价于线性回归的方法。

(2)在满秩情况下,多线性回归等价于LDA,(对于min||Y-XAB||,当B满秩时)

      Ye则证明,当降维维数为k-1以及rank(Sb)+rank(Sw) = rank(St)时才等价。

各种算法的优缺点:

标签:

原文地址:http://www.cnblogs.com/Jerry-PR/p/5411557.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!