降维(Dimensionality Reduction) 是机器学习中的一种重要的特征处理手段,它可以减少计算过程中考虑到的随机变量(即特征)的个数,其被广泛应用于各种机器学习问题中,用于消除噪声、对抗数据稀疏问题。它在尽可能维持原始数据的内在结构的前提下,得到一组描述原数据的,低维度的隐式特征(或 ...
分类:
编程语言 时间:
2020-06-07 00:46:37
阅读次数:
116
PCA对手写数字数据集的降维 1. 导入需要的模块和库 from sklearn.decomposition import PCA from sklearn.ensemble import RandomForestClassifier as RFC from sklearn.model_select ...
分类:
编程语言 时间:
2020-05-30 23:26:07
阅读次数:
114
PCA中的SVD 1 PCA中的SVD哪里来? 细心的小伙伴可能注意到了,svd_solver是奇异值分解器的意思,为什么PCA算法下面会有有关奇异值分解的参数?不是两种算法么?我们之前曾经提到过,PCA和SVD涉及了大量的矩阵计算,两者都是运算量很大的模型,但其实,SVD有一种惊人的数学性质,即是 ...
分类:
编程语言 时间:
2020-05-29 17:46:29
阅读次数:
69
计算方法还是svd,这里把两个轴显示出来了。 过去用svd做过pca,就是在此基础上多一步运算,把原始数据旋转到主轴对应的坐标系上即可。 matlab代码如下: clear all; close all; clc; mu = [0 0]; sigma = [1 1.3;1.3 3]; data = ...
分类:
其他好文 时间:
2020-05-24 11:27:41
阅读次数:
56
Research 我唯唯诺诺 ~~划水摸鱼~~ Tutorial 我重拳出击。 20200519凌晨睡不着的时候,我的脑子里告诉我世界上还有很多大学生不懂但渴望了解SVD(确信),于是20200520凌晨,有了这篇文章。 结构如下:首先是大致叙述下SVD,然后是给出一个大概的推导思路,最后是一些发散 ...
分类:
其他好文 时间:
2020-05-20 12:01:51
阅读次数:
61
解最小二乘的方法有很多,这里给出常见的三种方法实现。 一是一般方法,之前博客一般都用这种方法。 二是svd分解法,之前有用过svd(见这里,这里和这里)解其他问题,但是没用来解过最小二乘。 三是qr分解法,这个好像没用过。 这里主要总结记录一下实现方法。 代码如下: clear all; close ...
分类:
其他好文 时间:
2020-05-15 21:46:22
阅读次数:
98
1.有10个评委打分,(去掉一个最高一个最低)求平均分 package Svd; public class bbt { public static void main(String[] args) { // TODO Auto-generated method stub int arr[] = { ...
分类:
其他好文 时间:
2020-04-16 13:18:24
阅读次数:
52
前言 在用数据对模型进行训练时,通常会遇到维度过高,也就是数据的特征太多的问题,有时特征之间还存在一定的相关性,这时如果还使用原数据训练模型,模型的精度会大大下降,因此要降低数据的维度,同时新数据的特征之间还要保持线性无关,这样的方法称为主成分分析(Principal component analy ...
分类:
其他好文 时间:
2020-04-14 00:36:27
阅读次数:
70
前言 对于抓取一些站点分析然后指纹识别的时候可能用到到它。所以学习下。这里就记录一些最基本的感觉有用的。 xlwt 基本创建 demo: #coding=utf-8 import xlwt yunying = xlwt.Workbook(encoding = 'utf-8') sheet1 = yu ...
分类:
编程语言 时间:
2020-04-03 21:41:51
阅读次数:
93