PCA对手写数字数据集的降维 还记得我们上一周在讲特征工程时,使用的手写数字的数据集吗?数据集结构为(42000, 784),用KNN跑一次半小时,得到准确率在96.6%上下,用随机森林跑一次12秒,准确率在93.8%,虽然KNN效果好,但由于数据量太大,KNN计算太缓慢,所以我们不得不选用随机森林 ...
分类:
编程语言 时间:
2021-06-28 18:03:47
阅读次数:
0
1 PCA参数列表 2 PCA属性列表 3 PCA接口列表 ...
分类:
编程语言 时间:
2021-06-28 18:03:27
阅读次数:
0
https://www.bilibili.com/video/BV184411Q7Ng?p=12 注解: 这里了的降维不是指数组的维度,不是1维、2维、3维那个维。 注解: 这个是3维的特征转换为2维的特征。 降维就是把样本的特征的数量减少,比如在分辨男女的时候,把每个样本里面的特征肤色去掉。 注解 ...
分类:
其他好文 时间:
2021-01-04 10:53:13
阅读次数:
0
一、用自己的话描述出其本身的含义: 1、特征选择 通过人工选择特征筛选删除相关系数较低的特征,从而达到降维的作用让模型更加准确。 2、PCA 分析、简化数据集,用特征降维的方法减少特征数降低数据复杂的,减少过度拟合的可能性。 二、并用自己的话阐述出两者的主要区别 特征选择后是原来的特征集;PCA选择 ...
分类:
其他好文 时间:
2020-05-03 15:01:58
阅读次数:
52
9.主成分分析 一、用自己的话描述出其本身的含义: 1、特征选择 2、PCA 二、并用自己的话阐述出两者的主要区别 答:一、特征选择就是特征降维中进行人工选择的方式,主观性剔除不要的特征。而PCA则是特征降维中除了特征选择的另一种降维方法,中文名为主成分分析技术,他的作用是尽可能降低原数据的维数,简 ...
分类:
其他好文 时间:
2020-05-01 19:02:44
阅读次数:
72
一、用自己的话描述出其本身的含义: 1、特征选择 从多个特征中选择一部分特征作为训练集的特征,特征在选择前后不改变值。 2、PCA PCA是特征降维,降维是从一个维度空间映射到另一个维度空间,也就是高维度数据集映射到低维度空间的同时,尽可能的保留的变量。 二、并用自己的话阐述出两者的主要区别 特征选 ...
分类:
其他好文 时间:
2020-05-01 18:31:25
阅读次数:
53
一、用自己的话描述出其本身的含义: 1、特征选择 ①特征选择就是特征降维中进行人工选择的方式,主观性剔除不要的特征。 2、PCA ②主成分分析是一种分析、简化数据集的技术。主成分分析经常用于减少数据集的维数,同时保持数据集中的对方差贡献最大的特征。 二、并用自己的话阐述出两者的主要区别 特征选择是从 ...
分类:
其他好文 时间:
2020-04-28 23:27:35
阅读次数:
102
一、用自己的话描述出其本身的含义: 1、特征选择 2、PCA 二、并用自己的话阐述出两者的主要区别 答:一、特征选择就是特征降维中进行人工选择的方式,主观性剔除不要的特征。而PCA则是特征降维中除了特征选择的另一种降维方法,中文名为主成分分析技术,他的作用是尽可能降低原数据的维数,简化数据。 二、两 ...
分类:
其他好文 时间:
2020-04-28 16:45:50
阅读次数:
46
# coding = utf-8 from sklearn.feature_selection import VarianceThreshold from sklearn.decomposition import PCA ''' 数据降维:特征的数量减少(即columns减少) 1、特征选择原因: ... ...
分类:
其他好文 时间:
2019-05-10 23:21:21
阅读次数:
145
同为降维工具,二者的主要区别在于, 所在的包不同(也即机制和原理不同) from sklearn.decomposition import PCA from sklearn.manifold import TSNE 因为原理不同,导致,tsne 保留下的属性信息,更具代表性,也即最能体现样本间的差异 ...
分类:
其他好文 时间:
2019-03-03 18:54:10
阅读次数:
1001