前言 在大型图中,节点的低维向量embedding被证明了作为各种各样的预测和图分析任务的特征输入是非常有用的。顶点embedding最基本的基本思想是使用降维技术从高维信息中提炼一个顶点的邻居信息,存到低维向量中。这些顶点嵌入之后会作为后续的机器学习系统的输入,解决像顶点分类、聚类、链接预测这样的 ...
分类:
其他好文 时间:
2019-11-16 23:38:15
阅读次数:
169
讲授LDA基本思想,寻找最佳投影矩阵,PCA与LDA的比较,LDA的实际应用 前边讲的数据降维算法PCA、流行学习都是无监督学习,计算过程中没有利用样本的标签值。对于分类问题,我们要达到的目标是提取或计算出来的特征对不同的类有很好的区分度,由于没有用样本的标签值,会导致一个问题,不同的两类样本,如A ...
分类:
其他好文 时间:
2019-11-16 19:45:55
阅读次数:
89
04 数据降维 降维: 降低特征的数量 特征选择 主成分分析 特征选择: 特征选择的原因 冗余:部分特征的相关度高,容易消耗计算性能 噪声:部分特征对计算结构有影响 特征选择是什么? 1. 定义: 特征选择就是单纯地从提取到的所有特征中选择部分特征作为训练集特征,特征在选择前和选择后可以改变值,也可 ...
分类:
其他好文 时间:
2019-11-10 19:31:03
阅读次数:
124
import keras import matplotlib.pyplot as plt from keras.datasets import mnist (x_train, _), (x_test, y_test) = mnist.load_data() x_train = x_train.ast ...
分类:
Web程序 时间:
2019-11-10 19:08:42
阅读次数:
122
github地址:https://github.com/ABCDdouyae... arr-flatten 将多维数组展开成一维数组 文档地址:https://www.npmjs.com/package/arr-flatten 用法:arr-flatten(Array) 该包采用的递归方式进行降维, ...
分类:
其他好文 时间:
2019-11-07 18:57:17
阅读次数:
87
没有监督标签,只有x特征值,没有y,没有办法去预测,没有办法证明你做的对错,这样的数据集,我们能做的是什么呢?就是非监督机器学习。常见的算法就是聚类或者降维。聚类做的是什么?就是挖掘数据集中的规律的存在,通过把相似的数据归类,帮助我们探索数据集里的样本如何划分,比如可以将用户分群,不同的营销策略。聚 ...
分类:
其他好文 时间:
2019-11-04 14:00:48
阅读次数:
171
认识 sklearn 官网地址: https://scikit learn.gor/stable/ 从2007年发布以来, scikit learn已成为重要的Python机器学习库, 简称sklearn, 支持包括 分类, 回归, 降维和聚类 等机器学习算法, 还包括了 特征提取, 数据处理, 模 ...
分类:
其他好文 时间:
2019-10-26 00:53:35
阅读次数:
100
案例: 探究:用户对物品类别的喜好细分降维。 背景:把用户分成几个类别,分类的依据是用户购买了哪些物品。 先看商品products.csv数据,有product_id,product_name,aisle_id,department_id 接着看订单order_products.csv,有order ...
分类:
其他好文 时间:
2019-10-24 12:01:53
阅读次数:
143
[TOC]更新、更全的《机器学习》的更新网站,更有python、go、数据结构与算法、爬虫、人工智能教学等着你:https://www.cnblogs.com/nickchen121/# 主成分分析(PCA)# 一、维数灾难和降维在KNN算法中曾讲到,对于高维数据,会出现数据样本稀疏、距离计算困难等... ...
分类:
其他好文 时间:
2019-10-16 17:45:11
阅读次数:
100
PCA的概念: 主要思想是将n维特征映射到k维上,这k维是全新的正交特征,这k维特征被称为主成分,在原数据的基础上重新构造出来k维。就是从原始的空间顺序的找出一组相互正交的坐标轴,新坐标轴的选择和数据本身有很大的关系。其中,第一个坐标轴是从原数据中方差最大的方向,第二个新坐标轴选择是与第一个坐标轴正 ...
分类:
其他好文 时间:
2019-10-14 12:10:42
阅读次数:
210