码迷,mamicode.com
首页 >  
搜索关键字:机器学习 决策树 id3 c4.5 cart    ( 10675个结果
干货|掌握机器学习数学基础之优化下[1](重点知识)
主要内容(下划线部分):接上篇博文:干货|掌握机器学习数学基础之优化[1](重点知识)1、计算复杂性与NP问题2、上溢和下溢3、导数,偏导数及两个特殊矩阵4、函数导数为零的二三事5、方向导数和梯度6、梯度有什么用7、梯度下降法8、牛顿法1方向导数和梯度:方向导数:在之前讲偏导数的时候,相信很多人已经看出,偏导数求的都是沿着坐标轴的变化率,不管多少维也好,都只是求的变化率,那现在问题来了,如果我想求
分类:其他好文   时间:2020-11-30 15:14:34    阅读次数:5
干货|代码原理教你搞懂SGD随机梯度下降、BGD、MBGD
文章主要目录如下:1.批量梯度下降法BGD原理讲解2.随机梯度下降法SGD原理讲解3.小批量梯度详解MBGD原理讲解4.具体实例以及三种实现方式代码详解5.三种梯度下降法的总结在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。下面我们以线性回归算法来对三种梯度下降法进行比较。一般线性回归函数的假设函数为
分类:其他好文   时间:2020-11-27 11:55:19    阅读次数:30
偶像吴恩达|刚公布的深度学习课程上线网易云课堂
1前言6月23日,吴恩达宣布离开百度三个月后的创业项目:Deeplearning.ai,8月8日,吴恩达的最新课程“DeepLearningSpecialization”正式在Coursera上线,当时无论是在学界还是工业界都引起不小轰动,可见吴恩达老师的影响力。2初识我依稀记得第一次接触吴恩达老师课程是在大二参加创新项目,由于需要用到机器学习,在网易公开课看的斯坦福的machinelearnin
分类:其他好文   时间:2020-11-27 11:37:27    阅读次数:8
为什么要对数据进行归一化处理?
为什么要对数据进行归一化处理在喂给机器学习模型的数据中,对数据要进行归一化的处理。为什么要进行归一化处理,下面从寻找最优解这个角度给出自己的看法。1例子假定为预测房价的例子,自变量为面积,房间数两个,因变量为房价。那么可以得到的公式为:其中代表房间数,代表变量前面的系数。其中代表面积,代表变量前面的系数。首先我们祭出两张图代表数据是否均一化的最优解寻解过程。未归一化:归一化之后为什么会出现上述两个
分类:其他好文   时间:2020-11-27 11:26:59    阅读次数:6
机器学习常见算法分类汇总
机器学习无疑是当前数据分析领域的一个热点内容。很多人在平时的工作中都或多或少会用到机器学习的算法。本文为您总结一下常见的机器学习算法,以供您在工作和学习中参考。机器学习的算法很多。很多时候困惑人们都是,很多算法是一类算法,而有些算法又是从其他算法中延伸出来的。这里,我们从两个方面来给大家介绍,第一个方面是学习的方式,第二个方面是算法的类似性。学习方式根据数据类型的不同,对一个问题的建模有不同的方式
分类:编程语言   时间:2020-11-27 11:25:54    阅读次数:12
10分钟快速入门PyTorch(1)
10分钟快速入门PyTorch(1)上一篇教程10分钟入门pytorch(0)我们基本的介绍了pytorch里面的操作单元,Tensor,以及计算图中的操作单位Variable,相信大家都已经熟悉了,下面这一部分我们就从两个最基本的机器学习,线性回归以及logistic回归来开始建立我们的计算图进行运算。由于这个系列文章主要是将pytorch教程的,所以每个算法的太多数学背景以及推导过程就不再细讲
分类:其他好文   时间:2020-11-27 10:55:05    阅读次数:5
通过代码原理教你搞懂SGD随机梯度下降、BGD、MBGD
在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。下面我们以线性回归算法来对三种梯度下降法进行比较。一般线性回归函数的假设函数为:对应的损失函数为:(这里的1/2是为了后面求导计算方便)下图作为一个二维参数(theta0,theta1)组对应能量函数的可视化图:下面我们来分别讲解三种梯度下降法1批量梯度
分类:其他好文   时间:2020-11-27 10:49:35    阅读次数:5
机器学习中向量化编程总结记录
向量化编程总结记录很多时候,我们在实现算法的时候,总会碰到累和的伪代码:比如下面这个:为了简单我这里只重复5次,但是原理是一样的。很显然我们要得到这个结果,非常简单,比如下面的这段python代码:那么我们有没有更好的办法呢?有的,看到X,Y都是向量,我们很容易想到向量化编程。比如改成下面这段代码:啊上面这段代码,其实最关键的就是一行代码,就是np.dot(X_array,Y_array)这句话,
分类:其他好文   时间:2020-11-26 15:21:15    阅读次数:15
【自监督学习】Self-supervised Learning 再次入门
机器学习算法与自然语言处理出品@公众号原创专栏作者huybery学校|东北大学关于自监督学习,知乎上已经有了一些资源,比如师兄@bingo的两篇介绍[2][3]、@NaiyanWang大佬之前做的survey[4]、还有最新的@Sherlock[5]。本来我的这篇分享是准备叫「Self-SupervisedLearning入门介绍」,可惜在写作的过程中@Sherlock老哥抢先一步,所以只能叫「再
分类:其他好文   时间:2020-11-26 14:38:02    阅读次数:6
一文搞懂NLP中的Attention机制(附详细代码讲解)
机器学习算法与自然语言处理出品@公众号原创专栏作者Don.hub单位|京东算法工程师学校|帝国理工大学OutlineIntuitionAnalysisProsConsFromSeq2SeqToAttentionModelseq2seq很重要,但是缺陷也很明显attentionwasbornWritetheencoderanddecodermodelTaxonomyofattentionnumber
分类:其他好文   时间:2020-11-26 14:37:40    阅读次数:4
10675条   上一页 1 ... 15 16 17 18 19 ... 1068 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!