无监督学习 和监督学习不同的是,在无监督学习中数据并没有标签(分类)。无监督学习需要通过算法找到这些数据内在的规律,将他们分类。(如下图中的数据,并没有标签,大概可以看出数据集可以分为三类,它就是一个无监督学习过程。) 无监督学习没有训练过程。 聚类算法 该算法将相似的对象轨道同一个簇中,有点像全自 ...
分类:
编程语言 时间:
2018-06-24 21:01:56
阅读次数:
253
参考:https://blog.csdn.net/iterate7/article/details/78881562 在运用一些机器学习算法的时候不可避免地要对数据进行特征缩放(feature scaling),比如:在随机梯度下降(stochastic gradient descent)算法中,特 ...
分类:
其他好文 时间:
2018-06-18 15:04:47
阅读次数:
171
阅读目录 1. 批量梯度下降法BGD 2. 随机梯度下降法SGD 3. 小批量梯度下降法MBGD 4. 总结 1. 批量梯度下降法BGD 2. 随机梯度下降法SGD 3. 小批量梯度下降法MBGD 4. 总结 在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法 ...
分类:
其他好文 时间:
2018-06-11 12:00:09
阅读次数:
181
一、随机梯度下降法基础 # 梯度中的每一项计算:,要计算所有样本(共 m 个); # 批量梯度下降法的思路:计算损失函数的梯度,找到优化损失函数的最近距离,或者称最直接的方向; # 批量梯度下降法的梯度计算:每一次都对数据集中的所有样本的所有数据进行计算; # 特点: # 计算每一个 theta 值 ...
分类:
其他好文 时间:
2018-06-06 15:29:22
阅读次数:
181
转自:https://cloud.tencent.com/developer/article/1004866 TensorFlow基本使用 TensorFlow的一些基本概念 1.placehoder(占位符) dytpe:占位符的数据类型 shape:占位符的纬度,例如[2,2]代表2x2的二维矩 ...
分类:
其他好文 时间:
2018-05-25 21:19:05
阅读次数:
158
TensorFlow入门 入门用法 1.首先载入Tensorflow库,并创建InteractiveSession,接下来创建Placeholder,即输入数据的地方 2.然后定义系数W and b 3.实现算法(以softmax为例) 4.定义损失函数(loss Function)描述模型对分类的 ...
分类:
其他好文 时间:
2018-05-13 12:03:22
阅读次数:
149
logistic回归实现预测病马死亡率 python3已经实现 代码还在更新中 写完全部注释以后在贴上来 结果如下: 考虑到数据缺失问题,这个结果并不差 注意几个方法和概念 分类函数,梯度上升法,随机梯度上升法,改进的随机梯度上升法 ...
分类:
其他好文 时间:
2018-05-03 20:50:46
阅读次数:
170
AlexNet 中包含了比较新的技术点,首次在CNN中成功应用了 ReLu 、Dropout和LRN等Trick。 1.成功使用了Relu作为CNN的激活函数,并验证其效果在较深的网络中超过了Sigmoid成功解决了Simoid在网络较深时的梯度弥散问题。 2.训练时使用了Dropout随机忽略一部 ...
分类:
Web程序 时间:
2018-04-23 12:12:59
阅读次数:
241
1. 参数VS非参数 给定样本集 $(x_i, y_i), i= 1,2,\cdots, n $,其中 $x_i$ 表示特征向量, $y_i$ 表示样本标签。 考虑一个新的向量 $x$,要将他分类到可选分类 ${C_1, C_2,\cdots, C_c}$中 。 方法: 参数的 非参数的 1.1 参 ...
分类:
其他好文 时间:
2018-04-07 12:45:56
阅读次数:
160
前言 这里讨论的优化问题指的是,给定目标函数f(x),我们须要找到一组參数x。使得f(x)的值最小。 本文下面内容如果读者已经了解机器学习基本知识,和梯度下降的原理。 SGD SGD指stochastic gradient descent,即随机梯度下降。是梯度下降的batch版本号。 对于训练数据 ...
分类:
其他好文 时间:
2018-03-29 17:25:43
阅读次数:
272