码迷,mamicode.com
首页 >  
搜索关键字:andrew-ng    ( 280个结果
机器学习推导笔记1--机器学习的任务、步骤、线性回归、误差、梯度下降
前段时间放假在家的时候,总算是看完了斯坦福的机器学习公开课(Andrew NG)的监督学习,这项计划持续了将近一个学期。无监督学习和强化学习部分暂时还不太想看,目前来说监督学习与我现在的情况更契合一些。看完监督学习部分,对机器学习的了解又深了一些,加上之前帮师兄做实验,从工程角度和理论角度共同推进,...
分类:其他好文   时间:2015-08-11 18:31:04    阅读次数:168
从入门机器学习的零单排:OctaveMatlab经常使用绘图知识
OctaveMatlab经常使用绘图知识 之前一段时间在coursera看了Andrew ng的机器学习的课程,感觉还不错,算是入门了。这次打算以该课程的作业为主线,对机器学习基本知识做一下总结。小弟才学疏浅,如有错误,敬请指导。看几个样例就可以。‘ro’的含义。r表示红色,o表示o形。能够...
分类:其他好文   时间:2015-08-11 18:28:22    阅读次数:162
牛顿方法 - Andrew Ng机器学习公开课笔记1.5
牛顿方法 转载请注明出处:http://www.cnblogs.com/BYRans/ 在讲义《线性回归、梯度下降》和《逻辑回归》中我们提到可以用梯度下降或梯度上升的方式求解θ。在本文中将讲解另一种求解θ的方法:牛顿方法(Newton's method)。牛顿方法(Newton's method) ...
分类:其他好文   时间:2015-08-11 12:04:33    阅读次数:233
Andrew Ng Machine Learning - Week 3:Logistic Regression & Regularization
此文是斯坦福大学,机器学习界 superstar — Andrew Ng 所开设的 Coursera 课程:Machine Learning 的课程笔记。力求简洁,仅代表本人观点,不足之处希望大家探讨。...
分类:系统相关   时间:2015-08-11 01:25:45    阅读次数:390
机器学习:逻辑回归
************************************** 注:本系列博客是博主学习Stanford大学 Andrew Ng 教授的《机器学习》课程笔记。博主深感学过课程后,不进行总结很容易遗忘,根据课程加上自己对不明白问题的补充遂有此系列博客。本系列博客包括线性回归、逻辑回归、神经网络、机器学习的应用和系统设计、支持向量机、聚类、将维、异常检测、推荐系统及大规模机器学习等内容...
分类:其他好文   时间:2015-08-10 00:23:06    阅读次数:146
[Machine Learning (Andrew NG courses)]IV.Linear Regression with Multiple Variables
watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvenFoXzE5OTE=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center" alt="">watermark/2/...
分类:系统相关   时间:2015-08-09 13:48:14    阅读次数:178
机器学习:多变量线性回归
************************************** 注:本系列博客是博主学习Stanford大学 Andrew Ng 教授的《机器学习》课程笔记。博主深感学过课程后,不进行总结很容易遗忘,根据课程加上自己对不明白问题的补充遂有此系列博客。本系列博客包括线性回归、逻辑回归、神经网络、机器学习的应用和系统设计、支持向量机、聚类、将维、异常检测、推荐系统及大规模机器学习等内容...
分类:其他好文   时间:2015-08-09 12:35:38    阅读次数:1496
逻辑回归-Andrew Ng机器学习公开课笔记1.4
本文主要讲解分类问题中的逻辑回归。逻辑回归是一个二分类问题。 转载请注明出处:http://www.cnblogs.com/BYRans/ 二分类问题 二分类问题是指预测的y值只有两个取值(0或1),二分类问题可以扩展到多分类问题。例如:我们要做一个垃圾邮件过滤系统,是邮件的特征,预测的y值就是邮件...
分类:其他好文   时间:2015-08-08 19:37:35    阅读次数:597
Andrew Ng机器学习-Linear Regression with one variable
这一讲主要是针对单变量的线性回归来讲两个基本概念:损失函数(cost function)、梯度下降(Gradient Descent)1 Cost Function 定义如下: 左图为cost function的定义。右边为只有一个参数的h(x)的情况。 cost function的作用的评价一个回归函数好坏用的,具体来说就是评价回归函数h(x)的参数选对没。 这里J(theta)也可以...
分类:其他好文   时间:2015-08-08 16:42:04    阅读次数:142
机器学习:单变量线性回归及梯度下降
******************************************************************************* 注:本系列博客是博主学习Stanford大学 Andrew Ng 教授的《机器学习》课程笔记。博主深感学过课程后,不进行总结很容易遗忘,根据课程加上自己对不明白问题的补充遂有此系列博客。本系列博客包括线性回归、逻辑回归、神经网络、机器学习...
分类:其他好文   时间:2015-08-08 15:01:04    阅读次数:469
280条   上一页 1 ... 16 17 18 19 20 ... 28 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!