码迷,mamicode.com
首页 >  
搜索关键字:机器学习基石 mlf    ( 152个结果
机器学习基石笔记12——机器可以怎样学习(4)
Lecture 12: Nonlinear Transformation 12.1 Quadratic Hypothesis 现在我们碰到一个新的问题,如何来给如图 12-1 所示的线性不可分数据做分类? 我们之前只学过 linear classification 和 linear regressi ...
分类:其他好文   时间:2017-12-25 00:48:34    阅读次数:319
机器学习基石笔记11——机器可以怎样学习(3)
Lecture 11: Linear Models for Classification 11.1 Linear Models for Binary Classification 11.2 Stochastic Gradient Descent 11.3 Multiclass via Logisti ...
分类:其他好文   时间:2017-12-22 18:35:21    阅读次数:93
机器学习基石笔记7——为什么机器可以学习(3)
杜少的 blog Lecture 7:The VC Dimension 7.1 Definition of VC Dimension VC Dimension : The formal name of maximum non-break point 对有的 infinite hypothesis V ...
分类:其他好文   时间:2017-12-18 00:00:40    阅读次数:167
机器学习基石笔记6——为什么机器可以学习(2)
网友杜少的笔记 Lecture 6: Theory of Generalization 6.1 Restriction of Break Point 6.2 Bounding Function: Basic Cases 6.3 Bounding Function:Inductive Cases 6. ...
分类:其他好文   时间:2017-12-17 15:50:08    阅读次数:202
机器学习基石笔记5——为什么机器可以学习 (1)
致敬杜少 Lecture 5. Training versus Testing 5.1 Recap and Preview 5.2 Effective Number of Lines 5.3 Effective Number of Hypothesis 5.4 Break Point 题外话: ...
分类:其他好文   时间:2017-12-16 21:16:05    阅读次数:182
机器学习基石4-在何时才能使用机器学习(4)
向杜少致敬! Lecture 4: Feasibility of Learning 4.1. Learning is Impossible? Q1:在训练集 (in-sample) 能找到一个 g ≈ f, 但是你不能保证在应用数据 (out-sample)还有 g ≈ f 。 Q2:就算在某种约束 ...
分类:其他好文   时间:2017-12-16 15:53:53    阅读次数:81
机器学习基石笔记1
机器学习基石笔记1 lecture 1: The Learning Problem 1. 机器学习是什么 通过对数据的经验计算(experience computed),提升性能度量 3个关键性质 a) 存在一种可以学习的潜在的模式(underlying pattern) b) 没有明确的可编程的定 ...
分类:其他好文   时间:2017-11-27 14:16:03    阅读次数:242
机器学习基石:14 Regularization
一、正则化的假设集合 通过从高次多项式的H退回到低次多项式的H来降低模型复杂度, 以降低过拟合的可能性, 如何退回? 通过加约束条件: 如果加了严格的约束条件, 没有必要从H10退回到H2, 直接使用H2就可以了。 加上松弛点的约束条件, 使得模型比H2复杂, 但到不了H10那么复杂。 二、权重衰减 ...
分类:其他好文   时间:2017-10-18 23:12:22    阅读次数:305
机器学习基石:10 Logistic Regression
线性分类中的是非题 --->概率题 (设置概率阈值后,大于等于该值的为O,小于改值的为X) --->逻辑回归 O为1,X为0 逻辑回归假设 逻辑函数/S型函数:光滑,单调 自变量趋于负无穷时,因变量趋于0; 自变量趋于正无穷时,因变量趋于1; 自变量取0,因变量值为0.5 ---模拟概率特性 三种线 ...
分类:其他好文   时间:2017-10-08 19:41:57    阅读次数:144
机器学习基石:12 Nonlinear Transformation
一、二次假设 实际上线性假设的模型复杂度是受到限制的, 需要高次假设打破这个限制。 假设数据不是线性可分的,但是可以被一个圆心在原点的圆分开, 需要我们重新设计基于该圆的PLA等算法吗? 不用, 只需要通过非线性转换将X域圆形可分变为Z域线性可分! 通用的二次假设集 二、非线性转换 好的二次假设 非 ...
分类:其他好文   时间:2017-10-08 19:40:12    阅读次数:208
152条   上一页 1 2 3 4 ... 16 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!