Spark中定义的损失函数及梯度,在看源码之前,先回顾一下机器学习中定义了哪些损失函数,毕竟梯度求解是为优化求解损失函数服务的。监督学习问题是在假设空间F中选取模型f作为决策函数,对于给定的输入X,由...
分类:
编程语言 时间:
2017-03-20 19:32:19
阅读次数:
273
FFNN Feed Forward Neural Network 前馈神经网络,神经网络中一般输入向前传递 BP Backpropagation 反向传播,一般专指误差反向传播算法, RBM Restricted Boltzmann Machine 限制波兹曼机 受限波兹曼机 监督学习 给出data ...
分类:
其他好文 时间:
2017-03-17 13:25:22
阅读次数:
193
1、聚类是一种无监督学习,他讲相似的对象放到同一簇下,有点像自动分类。聚类方法几乎可以用到任何对象上,簇内的对象越相似,聚类结果就越好。 2、K均值聚类的优点 算法简单容易实现 缺点: 可能收敛到局部最小值,在大规模数据上收敛速度较慢 3、K-均值算法算法流程以及伪代码 首先随机选择k个初始点作为质 ...
分类:
其他好文 时间:
2017-03-17 00:27:01
阅读次数:
194
阅读对象:了解指示函数,了解训练集、测试集的概念。 1.简介 knn算法是监督学习中分类方法的一种。所谓监督学习与非监督学习,是指训练数据是否有标注类别,若有则为监督学习,若否则为非监督学习。所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例,这K个实 ...
分类:
编程语言 时间:
2017-03-16 17:15:02
阅读次数:
216
线性回归和逻辑回归都是监督学习方法,聚类分析是非监督学习的一种,可以从一批数据集中探索信息,比如在社交网络数据中可以识别社区,在一堆菜谱中识别出菜系。本节介绍K-means聚类算法。 1、K-means k是一个超参数,表示要聚类成多少类。K-means计算方法是重复移动类的重心,以实现成本函数最小 ...
分类:
其他好文 时间:
2017-03-13 22:00:51
阅读次数:
356
PredNet Deep Predictive coding networks for video prediction and unsupervised learning ICLR 2017 2017.03.12 Code and video examples can be found at: h ...
分类:
Web程序 时间:
2017-03-12 21:07:54
阅读次数:
297
聚类聚类主要内容是将样本进行归类,同种类别的样本放到一起,所有样本最终会形成K个簇,它属于无监督学习。核心思想根据给定的K值和K个初始质心将样本中每个点都分到距离最近的类簇中,当所有点分配完后根据每个...
分类:
编程语言 时间:
2017-03-08 19:36:08
阅读次数:
199
1.knn是分类算法 2.监督学习 3.给它的数据是有label的,是已经事先分类好了的, 类别数不变。 1.kmeans是聚类算法 2.非监督学习 3.给它的数据是没有label,是没有事先分类好的, 以“物以类聚”原理进行聚集成簇。 K的含义:来了一个样本x,要给它分类,即求出它的类别,就从数据 ...
分类:
编程语言 时间:
2017-03-04 13:09:54
阅读次数:
467
由于毕设是关于机器学习的,所以有在学习一些关于机器学习的内容。 起步是先看Andrew ng 的视频,这一周的总结如下。 首先,机器学习分为监督学习和非监督学习。 而我的理解是监督学习是有标准的,即你可以对你的结果以他之前的一些数据作为标准进行判断,所谓监督。监督问题也分为分类和回归问题。分类即结果 ...
分类:
其他好文 时间:
2017-03-04 13:03:22
阅读次数:
290
1 摘要 本报告是在学习斯坦福大学机器学习课程前四节加上配套的讲义后的总结与认识。前四节主要讲述了回归问题,回归属于有监督学习中的一种方法。该方法的核心思想是从连续型统计数据中得到数学模型,然后将该数学模型用于预测或者分类。该方法处理的数据可以是多维的。 讲义最初介绍了一个基本问题,然后引出了线性回 ...
分类:
其他好文 时间:
2017-03-02 15:21:47
阅读次数:
340