抱歉,大家,这里不是要分享如何学习deep learning,而是想要记录自己学习deep learning的小历程,算是给自己的一点小动力吧,希望各位业内前辈能够多多指教!看到有网友提到,Andrew Ng的网页教程UFLDL Tutorial是入门不错的教程,好吧,试着从这里开始吧,加油!UFL...
分类:
其他好文 时间:
2015-08-06 21:45:44
阅读次数:
155
本文主要讲解局部加权(线性)回归。在讲解局部加权线性回归之前,先讲解两个概念:欠拟合、过拟合,由此引出局部加权线性回归算法。欠拟合、过拟合 如下图中三个拟合模型。第一个是一个线性模型,对训练数据拟合不够好,损失函数取值较大。如图中第二个模型,如果我们在线性模型上加一个新特征项,拟合结果就会好一些.....
分类:
其他好文 时间:
2015-08-05 20:20:46
阅读次数:
312
线性回归中提到最小二乘损失函数及其相关知识。对于这一部分知识不清楚的同学可以参考上一篇文章《线性回归、梯度下降》。本篇文章主要讲解使用最小二乘法法构建损失函数和最小化损失函数的方法。 最小二乘法构建损失函数 最小二乘法也一种优化方法,用于求得目标函数的最优值。简单的说就是:让我们的预测值与真实值总的...
分类:
其他好文 时间:
2015-08-04 19:03:17
阅读次数:
143
此文是斯坦福大学,机器学习界 superstar — Andrew Ng 所开设的 Coursera 课程:Machine Learning 的课程笔记。力求简洁,仅代表本人观点,不足之处希望大家探讨。
课程网址:https://www.coursera.org/learn/machine-learning/home/welcome...
分类:
系统相关 时间:
2015-07-29 19:22:48
阅读次数:
220
1,Andrew Ng机器学习公开课笔记 -- 支持向量机2,SVM-支持向量机算法概述3,支持向量机SVM(一)4,机器学习中的算法(2)-支持向量机(SVM)基础
分类:
其他好文 时间:
2015-07-24 20:22:17
阅读次数:
148
这一节讲的是核化的SVM,Andrew Ng的那篇讲义也讲过,讲的也不错。 首先讲的是kernel trick,为了简化将低维特征映射高维特征后的计算,使用了核技巧。讲义中还讲了核函数的判定,即什么样的函数K能使用kernel trick。此外,核函数还可以衡量两个特征的相似度,值...
分类:
系统相关 时间:
2015-07-20 21:31:27
阅读次数:
165
最近在Coursera上看机器学习,其中Andrew Ng 就有提到一个“过早优化”的观点非常喜欢。这里我将其延伸到项目优化问题上,整理下自己的看法,请各位看官手下留情~
分类:
其他好文 时间:
2015-07-15 01:11:22
阅读次数:
198
此文是斯坦福大学,机器学习界 superstar — Andrew Ng 所开设的 Coursera 课程:Machine Learning 的课程笔记。力求简洁,仅代表本人观点,不足之处希望大家探讨。
课程网址:https://www.coursera.org/learn/machine-learning/home/welcomeWeek 1: Introduction
Environment...
分类:
系统相关 时间:
2015-07-12 00:18:22
阅读次数:
265
也说说EM[本文链接:http://www.cnblogs.com/breezedeus/archive/2012/08/12/2634466.html,转载请注明出处]前几天看Andrew Ng 讲EM的视频,又温习了一遍这玩意。EM的想法其实也比较简单。我要最大化似然函数(或者后验概率),但是直...
分类:
其他好文 时间:
2015-07-09 21:08:08
阅读次数:
110
首先将本节主要内容记录下来,然后给出课后习题的答案。
笔记:
1:首先我想推导用SVD求解PCA的合理性。
PCA原理:假设样本数据X∈Rm×n,其中m是样本数量,n是样本的维数。PCA降维的目的就是为了使将数据样本由原来的n维降低到k维(k<n)。方法是找数据随之变化的主轴,在Andrew
Ng的网易公开课上我们知道主方向就是X的协方差所对应的最大特征值所对应的特征向量的...
分类:
其他好文 时间:
2015-06-09 11:56:02
阅读次数:
200