码迷,mamicode.com
首页 >  
搜索关键字:机器学习基石    ( 143个结果
机器学习基石(2)--Learning to Answer Yes/No
本节课主要讲述机器学习怎么解决是非题。 介绍系列课程的第一个模型:perceptron(感知器) 把每一个sample的各种feature用一个向量来表示,也就是下图的x,以上图为例,x1=age, x2=annual salary, x3=year in job, x4=current detb, ...
分类:其他好文   时间:2016-09-27 08:02:30    阅读次数:173
机器学习基石(1)--The Learning Problem
机器学习的基石课程可以分成四个大的步骤: 1. 什么时候可以使用机器学习? 2. 为什么机器学习可以有效果? 3. 机器学习是一个怎样的过程? 4. 机器学习怎么样才能学得更好? From Learning to Machine Learning 仿照人类进行学习和认知的过程,机器进行学习的过程也非 ...
分类:其他好文   时间:2016-09-26 18:04:41    阅读次数:115
机器学习基石笔记(四)
四、 How Can Machines Learn Better? 我个人感觉第四讲是整个基石课程的精髓所在,很多东西说的很深也很好。 首先是overfitting的问题,过拟合是一个常发生的情况,简单的理解就是下图,low Ein不一定是好事,因为我们的目的是low Eout。所以不能过拟合你的训 ...
分类:其他好文   时间:2016-09-23 14:47:59    阅读次数:191
机器学习基石笔记(三)
三、How Can Machines Learn? 第三节首先介绍了linear regression,线性可分的线性规划是有analytic solution的,林老师给我们推了一下,关键就是矩阵化的处理,简化了很多的工作 上面三幅图是整个推导的过程,需要注意的是,最后的X不一定是可逆的,因为我们 ...
分类:其他好文   时间:2016-09-22 20:00:30    阅读次数:263
线性SVM
根据台大的机器学习在Coursera上公开课《机器学习基石》和《机器学习技术》整理的笔记,考虑到现在该课程已经关闭了,所以我把我的学习笔记慢慢整理出来。这是第一篇-Linear SVM 如果我们采用PLA(Percetron Learning Algorithmn),已经能够得到若干种w,这些w都能 ...
分类:其他好文   时间:2016-08-04 17:37:07    阅读次数:127
台湾大学林轩田教授机器学习基石课程理解及python实现----PLA
最近在班主任的带领下,开始观看台湾大学林轩田教授的机器学习基石课程,虽然吧,台湾人,汉语说得蛮6,但是还是听着怪怪的,不过内容非常值得刚刚入门的机器学习小白学习,话不多说,直接进入正题。 1.基本介绍 (貌似这里一般是应该背景介绍,但是,历史吗,自己去百度吧) (1)preceptron 翻译中文叫做感知器,如果你之前听说过神经网络的,它其实就是网络中的一个神经元,它自身的作用非常小,只能...
分类:编程语言   时间:2016-07-11 17:13:07    阅读次数:599
machine learning
cousera-Andrew NG的机器学习足够入门cs229台湾大学林轩田老师的机器学习基石和机器学习技法结合李航的<<统计学习方法>>和周志航的<<机器学习>> 看完之后看<<机器学习实战>>之后去kaggle打比赛, 再想深了看看pr ...
分类:系统相关   时间:2016-07-08 13:51:24    阅读次数:176
機器學習基石(Machine Learning Foundations) 机器学习基石 手写版笔记大全
大家好,我是Mac Jiang。看到大家对我的博客的支持,非常感动。今天和大家分享的是我在学习机器学习基石时的手写笔记。当时在学习的时候,我把一些我认为重要的东西写了下来,一来是为了加深印象,二来是为了供以后复习之用。         网上的机器学习基石笔记也有很多,但大多是电子版,个人更加倾向于手写版的自由。毛主席曾经说过,“不动笔墨不读书”,我觉得这句话非常有道理,以我个人的学习方法而言,是...
分类:系统相关   时间:2016-07-07 15:45:39    阅读次数:271
台大林轩田·机器学习基石记要
台大林轩田·机器学习基石记要昨天开始看林轩田的机器学习基石,从今天起开始去粗取精 本文在差不多是随堂笔记,可读性不好。。第一讲比较基础,一些概念自己早已经理解了,所以不再做笔记,有点印象的是讲到了ML、DL、AI的一些联系与区别,ML主要是想从数据中学习/逼近一个理想的函数f(x)第二讲讲到了PLA,感知器学习算法,并且证明了线性可分时感知器收敛定理(与Haykin的Neural Networks...
分类:其他好文   时间:2016-06-02 13:54:14    阅读次数:1817
机器学习基石第六讲:theory of generalization
机器学习基石第六讲继续讨论“学习是否可行的问题”。Restriction of Break Point继续前面的讨论,我们看mH(N)m_H(N)是否会有一个很小的增长速度。回顾前面的四种成长函数及其break point。我们知道k是一个成长函数的break point,那比k大的值全是break point。mH(N)m_H(N)是一个hypothesis在N个数据点上可以产生的dichotom...
分类:其他好文   时间:2016-04-29 19:46:40    阅读次数:175
143条   上一页 1 ... 5 6 7 8 9 ... 15 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!