线性模型之LDA和PCA 线性判别分析LDA LDA是一种无监督学习的降维技术。 思想:投影后类内方差最小,类间方差最大,即期望同类实例投影后的协方差尽可能小,异类实例的投影后的类中心距离尽量大。 二分类推导 给定数据集$D=\{(x_i,y_i)\}_{i=1}^m$,令$X_i,\mu_i,\s ...
分类:
其他好文 时间:
2019-07-07 17:35:48
阅读次数:
112
迁移学习概述背景随着越来越多的机器学习应用场景的出现,而现有表现比较好的监督学习需要大量的标注数据,标注数据是一项枯燥无味且花费巨大的任务,所以迁移学习受到越来越多的关注。传统机器学习(主要指监督学习) 基于同分布假设 需要大量标注数据 然而实际使用过程中不同数据集可能存在一些问题,比如 数据分布差 ...
分类:
其他好文 时间:
2019-07-07 16:09:50
阅读次数:
1106
南京大学周志华教授综述论文:弱监督学习 转自机器之心:https://www.jiqizhixin.com/articles/2018-03-05 在《国家科学评论》(National Science Review, NSR) 2018 年 1 月份出版的机器学习专题期刊中,介绍了南京大学周志华教授 ...
分类:
其他好文 时间:
2019-07-05 00:38:35
阅读次数:
151
机器学习主要由监督学习、无监督学习。 监督学习主要用于解决分类和回归问题。 无监督学习主要用于解决聚类问题。 在机器学习过程中主要有以下几个步骤: 数据预处理 特征工程 数据建模 结果评估 首先介绍数据预处理,主要包括数据清洗、数据采样以及数据集的拆分三个部分。 在数据清洗过程中主要对各种脏数据进行 ...
分类:
其他好文 时间:
2019-07-05 00:38:17
阅读次数:
170
分类: – 有类别标记信息, 因此是一种监督学习 – 根据训练样本获得分类器,然后把每个数据归结到某个已知的类,进而也可以预测未来数据的归类。 聚类: – 无类别标记, 因此是一种无监督学习 – 无类别标记样本,根据信息相似度原则进行聚类,通过聚类,人们能够识别密集的和稀疏的区域,因而发现全局的分布 ...
分类:
其他好文 时间:
2019-06-30 09:28:26
阅读次数:
90
1. 监督学习--分类 机器学习肿分类和预测算法的评估: a. 准确率 b.速度 c. 强壮行 d.可规模性 e. 可解释性 2. 什么是决策树/判定树(decision tree)? 3. 熵(entropy)概念: 变量的不确定越大,熵也就越大。 4. 决策树归纳算法(ID3) 5. 其他算法及 ...
分类:
编程语言 时间:
2019-06-25 11:57:46
阅读次数:
191
机器怎么学习? 处理某个特定的任务,以大量的“经验”为基础; 对任务完成的好坏,给予一定的评判标准; 通过分析经验数据,任务完成得更好了; 输入海量训练数据对模型进行训练,使模型掌握数据所蕴含的潜在规律,进而对新输入的数据进行准确的分类或预测。 机器学习主要分类: 无监督学习(Unsupervise ...
分类:
其他好文 时间:
2019-06-23 21:02:39
阅读次数:
130
恢复内容开始 梯度下降的定义: 梯度下降是一种因为计算机储存及能力有限,采取逐步逼近,迭代求解的方法. 梯度下降的步骤: 任取一点作为起始点 查看在当前点向那个方向移动能得到最小的z值,并向该方向移动. 重复该步骤,直到无法找到更小的z值,此时认为达到最低点. 几个基础的算法概念: 步长:是每一次梯 ...
分类:
其他好文 时间:
2019-06-22 19:49:01
阅读次数:
133
这是一个非常简单的聚类算法,算法的目的就是找到这些中心点的合适坐标,使得所有样本到其分组中心点距离的平方和最小. K-means 的中心点向量不一定是训练样本中某成员的位置 import numpy as npfrom sklearn.cluster import KMeans # 引入K-mean ...
分类:
其他好文 时间:
2019-06-21 22:37:46
阅读次数:
170
AP算法,具有结果稳定可重现 训练前不用制定K-means中K值,但是算法的时间复杂度比K-means高 import numpy as npfrom sklearn.cluster import AffinityPropagation # 引入AP算法聚类 X = np.array([[1,2], ...
分类:
编程语言 时间:
2019-06-21 22:28:52
阅读次数:
141