码迷,mamicode.com
首页 >  
搜索关键字:andrew-ng    ( 280个结果
Andrew Ng 的 Machine Learning 课程学习 (week4) Multi-class Classification and Neural Networks
这学期一直在跟进Coursera上的 Machina Learning公开课, 老师Andrew Ng是coursera的创始人之一,Machine Learning方面的大牛。这门课程对想要了解和初步掌握机器学习的人来说是不二的选择。这门课程涵盖了机器学习的一些基本概念和方法,同时这门课程的编程作...
分类:Web程序   时间:2015-11-20 10:42:58    阅读次数:577
斯坦福大学机器学习(Andrew Ng@2014)--自学笔记
今天学习Andrew NG老师《机器学习》之6 - 6 - Advanced Optimization,做笔记如下:用fminunc函数求代价函数最小值,分两步:1、自定义代价函数function [jVal,gradient] = costFunction(theta)jVal = (theta(...
分类:其他好文   时间:2015-11-18 21:32:36    阅读次数:286
梯度下降法
一、引言 本材料参考Andrew Ng大神的机器学习课程http://cs229.stanford.edu,以及斯坦福无监督学习UFLDL tutorialhttp://ufldl.stanford.edu/wiki/index.php/UFLDL_Tutorial 机器学习中的回归问题属于有监督学...
分类:其他好文   时间:2015-10-26 13:41:04    阅读次数:233
Deep learning:一(基础知识_1)
前言:   最近打算稍微系统的学习下deep learing的一些理论知识,打算采用Andrew Ng的网页教程UFLDL Tutorial,据说这个教程写得浅显易懂,也不太长。不过在这这之前还是复习下machine learning的基础知识...
分类:其他好文   时间:2015-10-26 10:36:45    阅读次数:333
Support Vector Machines for classification
Support Vector Machines for classificationTo whet your appetite for support vector machines, here’s a quote from machine learning researcher Andrew Ng...
分类:系统相关   时间:2015-10-23 21:28:02    阅读次数:450
k-means聚类
K-means也是聚类算法中最简单的一种了,但是里面包含的思想却是不一般。最早我使用并实现这个算法是在学习韩爷爷那本数据挖掘的书中,那本书比较注重应用。看了Andrew Ng的这个讲义后才有些明白K-means后面包含的EM思想。 聚类属于无监督学习,以往的回归、朴素贝叶斯、SVM等都是有类别标签y...
分类:其他好文   时间:2015-10-15 15:53:33    阅读次数:261
Andrew Ng机器学习课程17(2)
Andrew Ng机器学习课程17(2)声明:引用请注明出处http://blog.csdn.net/lg1259156776/说明:主要介绍了利用value iteration和policy iteration两种迭代算法求解MDP问题,还介绍了在实际应用中如何通过积累“经验”更新对转移概率和reward的估计的学习模型,并结合两种迭代算法进行求解的完整过程。...
分类:其他好文   时间:2015-10-12 12:45:10    阅读次数:217
判别式模型和产生式模型 (discriminative model and generative m
最经典的莫过于 Andrew Ng在NIPS2001年有一篇专门比较判别模型和产生式模型的文章: On Discrimitive vs. Generative classifiers: A comparision of logistic regression and naive Bayes (http://robotics.stan...
分类:其他好文   时间:2015-10-10 17:23:50    阅读次数:138
机器学习-牛顿方法&指数分布族&GLM
回头再温习一下Andrew Ng的机器学习视频课,顺便把没写完的笔记写完。本节内容 牛顿方法 指数分布族 广义线性模型 之前学习了梯度下降方法,关于梯度下降(gradient descent),这里简单的回顾下【参考感知机学习部分提到的梯度下降(gradient descent)】。在最小化损失函数时,采用的就是梯度下降的方法逐步逼近最优解,规则为θ:=θ?η?θ?(θ)\theta := \the...
分类:其他好文   时间:2015-10-06 16:56:25    阅读次数:363
Machine Learning笔记(三) 多变量线性回归
Machine Learning笔记(三) 多变量线性回归 注:本文内容资源来自 Andrew Ng 在 Coursera上的 Machine Learning 课程,在此向 Andrew Ng 致敬。 一、多特征(Multiple Features) 笔记(二)中所讨论的房价问题,...
分类:系统相关   时间:2015-09-26 14:45:59    阅读次数:568
280条   上一页 1 ... 13 14 15 16 17 ... 28 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!