码迷,mamicode.com
首页 >  
搜索关键字:降维    ( 692个结果
CNN之池化层tf.nn.max_pool|tf.nn.avg_pool|tf.reduce_mean
摘要:池化层的主要目的是降维,通过滤波器映射区域内取最大值、平均值等操作。 均值池化:tf.nn.avg_pool(input,ksize,strides,padding) 最大池化:tf.nn.max_pool(input,ksize,strides,padding) input:通常情况下是卷积 ...
分类:其他好文   时间:2019-12-07 23:13:44    阅读次数:273
给定数轴上的n个点,求距离最近的两个点的距离
public class MinimumSpacing { //给定平面上的n个点,求距离最近的两个点的距离。 //无从下手的话,先分解问题,分解成简单的,逐个分析,然后再合在一起考虑 //这是个2维的数据,那就先降维到1维分析 //先考虑在一条数轴上有n个点,求最近距离的2个点的距离 // // ...
分类:其他好文   时间:2019-12-05 22:30:03    阅读次数:160
机器学习--标准化和缺失值处理、数据降维
标准化和缺失值的处理 标准化 : 特点 : 通过对原始数据进行变换把数据变换到均值为0, 标准差为1的范围内. ## 对于归一化来说:如果出现异常点,影响了大值和小值,那么结果显然会发生改变 对于标准化来说:如果出现异常点,由于具有一定数据量,少量的异常点对于平均值的影响并不大,从 而方差改变较小。 ...
分类:其他好文   时间:2019-12-01 00:18:36    阅读次数:296
PCA(主成分分析)方法浅析
PCA(主成分分析)方法浅析 降维、数据压缩 找到数据中最重要的方向:方差最大的方向,也就是样本间差距最显著的方向 在与第一个正交的超平面上找最合适的第二个方向 PCA算法流程 上图第一步描述不正确,应该是去中心化,而不是中心化 具体来说,投影这一环节就是:将与特征值对应的k个特征向量分别作为行向量 ...
分类:其他好文   时间:2019-11-30 21:07:21    阅读次数:116
探索性因子分析
https://www.cnblogs.com/wentingtu/archive/2012/03/03/2377971.html 探索性因子分析 探索性因子分析(Exploratory Factor Analysis,EFA)是一项用来找出多元观测变量的本质结构、并进行处理降维的技术。 因而EFA ...
分类:其他好文   时间:2019-11-30 11:49:30    阅读次数:96
《机学三》特征工程3 —— 特征选择:特征选择、数据降维
一、概述 1.1【降维】 【维降】:把三维降成二维,本质就是减少特征数量; 1.2【特征选择】 什么是特征选择: 特征选择就是单纯地从提取到的所有特征中选择部分特征作为训练集特征,特征在选择前和选择后可以改变值、也不改变值,但是选择后的特征维数肯定比选择前小,毕竟我们只选择了其中的一部分特征。 为什 ...
分类:其他好文   时间:2019-11-27 10:46:17    阅读次数:85
PCA 在手写数字数据集上的应用
在 skilearn 的手写数据集中,每个数据点都是 0 到 9 之间手写数字的一张 8*8 灰度图像。用 PCA 将其降维到二维,并可视化数据点,如下: 1、digits 数据演示: from sklearn.datasets import load_digits import matplotli ...
分类:其他好文   时间:2019-11-26 19:58:32    阅读次数:106
主成分分析(PCA)与线性判别分析(LDA)
主成分分析 线性、非监督、全局的降维算法 PCA最大方差理论 出发点:在信号处理领域,信号具有较大方差,噪声具有较小方差 目标:最大化投影方差,让数据在主投影方向上方差最大 PCA的求解方法: 对样本数据进行中心化处理 求样本协方差矩阵 对协方差矩阵进行特征分解,将特征值从大到小排列 取特征值前d大 ...
分类:其他好文   时间:2019-11-24 15:58:56    阅读次数:102
LBP扩展与多尺度表达(二)
LBP的统一模式和非统一模式: (降维度) 统一模式: 中心点的一周,两个相邻像素点间求导为1,即由0到1跳变,或者由1向0跳变。 则跳变的次数为U的值,U等于0或者2时即为统一模式,否则为非统一模式。 统一模式共有58种: 非统一模式: 灰度不变性的圆形LBP算法: 从上面的计算我们可以看出,基本 ...
分类:其他好文   时间:2019-11-20 21:49:09    阅读次数:200
特征选择
特征选择 特征选择方法是从原始特征数据集中选择子集,是一种包含的关系,没有更改原始的特征空间。主要是为了减少特征数量、降维,减少过拟合使模型泛化能力更强以及增强对特征与特征值之间的理解。 (1) Filter方法:对每一维的特征“打分”,即给每一维的特征赋予权重,这样的权重就代表着该维特征的重要性, ...
分类:其他好文   时间:2019-11-19 13:36:32    阅读次数:55
692条   上一页 1 ... 10 11 12 13 14 ... 70 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!