标签:
降维 参考网址http://dataunion.org/20803.html
【低方差滤波 (Low Variance Filter)】需先对数据做归一化处理
【高相关滤波】认为当两列数据变化趋势相似时,它们包含的信息也相似
【随机森林】对目标属性产生许多巨大的树,然后根据对每个属性的统计结果找到信息量最大的特征子集。如果一个属性经常成为最佳分裂属性,那么它很有可能是需要保留的信息特征
【主成分分析 (PCA)】需先对数据做归一化处理,核心正交变换。 PCA 变换后会丧失数据的解释性
【反向特征消除 (Backward Feature Elimination)】
【前向特征构造 (Forward Feature Construction)】
Principal component analysis (PCA) 参考网址http://blog.csdn.net/u012162613/article/details/42192293
使用奇异值分解并保留大部分有用信息的线性降维方法。用scipy.linalg完成奇异值分解(仅适用于方阵和小型数据)。时间复杂度n^3
参数:
n_components(int, None or string)
默认n_components == min(n_samples, n_features)
n_components == ‘mle’ 猜测
copy : bool
False,传入训练模型的数据将被覆盖,需用fit_transform(X),而非fit(X).transform(X)
whiten : bool, optional
默认False
True
标签:
原文地址:http://www.cnblogs.com/sxbjdl/p/5152852.html