码迷,mamicode.com
首页 > 其他好文 > 详细

sklearn学习札记

时间:2016-02-18 11:32:53      阅读:269      评论:0      收藏:0      [点我收藏+]

标签:

 

降维 参考网址http://dataunion.org/20803.html

【低方差滤波 (Low Variance Filter)】需先对数据做归一化处理

【高相关滤波】认为当两列数据变化趋势相似时,它们包含的信息也相似

【随机森林】对目标属性产生许多巨大的树,然后根据对每个属性的统计结果找到信息量最大的特征子集。如果一个属性经常成为最佳分裂属性,那么它很有可能是需要保留的信息特征

【主成分分析 (PCA)】需先对数据做归一化处理,核心正交变换。 PCA 变换后会丧失数据的解释性

【反向特征消除 (Backward Feature Elimination)】

【前向特征构造 (Forward Feature Construction)】

Principal component analysis (PCA) 参考网址http://blog.csdn.net/u012162613/article/details/42192293

使用奇异值分解并保留大部分有用信息的线性降维方法。用scipy.linalg完成奇异值分解(仅适用于方阵和小型数据)。时间复杂度n^3

参数:

n_components(int, None or string)

默认n_components == min(n_samples, n_features)

n_components == ‘mle’ 猜测

 

copy : bool

False,传入训练模型的数据将被覆盖,需用fit_transform(X),而非fit(X).transform(X)

whiten : bool, optional

默认False

True

sklearn学习札记

标签:

原文地址:http://www.cnblogs.com/sxbjdl/p/5152852.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!