码迷,mamicode.com
首页 >  
搜索关键字:梯度    ( 2016个结果
最优化学习笔记(四)共轭梯度法
...
分类:其他好文   时间:2015-07-14 10:04:36    阅读次数:414
最优化学习笔记(一)预备知识
...
分类:其他好文   时间:2015-07-14 00:15:50    阅读次数:233
并行随机梯度下降
Martin A. Zinkevich 等人(Yahoo。Lab)合作的论文 Parallelized Stochastic Gradient Descent 中给出了一种适合于 MapReduce 的并行随机梯度下降法,并给出了对应的收敛性分析。这里忽略理论部分。依据自己的理解给...
分类:其他好文   时间:2015-07-13 13:35:01    阅读次数:185
Python下opencv使用笔记(七)(图像梯度与边缘检测)
梯度简单来说就是求导,在图像上表现出来的就是提取图像的边缘(不管是横向的、纵向的、斜方向的等等),所需要的无非也是一个核模板,模板的不同结果也不同。所以可以看到,所有的这些个算子函数,归结到底都可以用函数cv2.filter2D()来表示,不同的方法给予不同的核模板,然后演化为不同的算子而已。并且这只是这类滤波函数的一个用途,曾经写过一个关于matlab下滤波函数imfilter()的扩展应用(等同...
分类:编程语言   时间:2015-07-12 19:02:57    阅读次数:435
线性回归与梯度下降法
原文:http://zhouyichu.com/machine-learning/Gradient-Descent.html前言最近在看斯坦福的《机器学习》的公开课,这个课程是2009年的,有点老了,不过讲的还是很好的,廓清了一些我以前关于机器学习懵懂的地方。我的一位老师曾经说过:什么叫理解?理解就...
分类:其他好文   时间:2015-07-12 18:47:12    阅读次数:135
Python下opencv使用笔记(六)(图像的形态学转换)
形态学一般是使用二值图像,进行边界提取,骨架提取,孔洞填充,角点提取,图像重建等等。常用的形态学操作时腐蚀与膨胀,在他们的基础上演变出一些变体,包括开运算、闭运算、梯度等等。形态学一般是对二值图像进行的操作。 下面贴几个比较好的介绍图像形态学方面的博客 图像处理基本算法-形态学 图像的形态学处理 (一)腐蚀关于腐蚀就是将图像的边界腐蚀掉,或者说使得图像整体上看起来...
分类:编程语言   时间:2015-07-12 17:32:35    阅读次数:1167
最小二乘法和梯度下降法的区别?
原文:http://www.zhihu.com/question/20822481相同1.本质相同:两种方法都是在给定已知数据(independent & dependent variables)的前提下对dependent variables算出出一个一般性的估值函数。然后对给定新数据的depen...
分类:其他好文   时间:2015-07-12 01:37:05    阅读次数:219
【MATLAB】Machine Learning (Coursera Courses Outline & Schedule)
主要分享了Coursera 机器学习相关课程材料,包括练习题与我的Matlab解答。 课程涉及技术:梯度下降、线性回归、监督/非监督学习、分类/逻辑回归、正则化、神经网络、梯度检验/数值计算、模型选择/诊断、学习曲线、评估度量、SVM、K-Means聚类、PCA、Map Reduce & Data ...
分类:系统相关   时间:2015-07-11 06:41:10    阅读次数:442
神经网络特征可视化
1. visualizing higher-layer features of a deep network 本文提出了两种可视化方法。  1. 最大化activation 当训练完一个深层神经网络之后, 固定所有参数。 然后对于某一个神经元的activation进行梯度上升优化来寻找能使它的值最大化的input。 不断的用gradient ascent来更新一个初始化为random...
分类:其他好文   时间:2015-07-09 22:43:05    阅读次数:219
斯坦福《机器学习》Lesson4感想--1、Logistic回归中的牛顿方法
在上一篇中提到的Logistic回归是利用最大似然概率的思想和梯度上升算法确定θ,从而确定f(θ)。本篇将介绍另一种求解最大似然概率?(θ)的方法,即牛顿迭代法。 在牛顿迭代法中,假设一个函数是,求解θ值使得f(θ)=0。在图1中可知, 图1 选择一个点,对应函数值为,并将对应的切线与x轴相交的点记为,所以 ,依此类推可知牛顿迭代规律。  为了求得最大似然概率?(θ),让,...
分类:其他好文   时间:2015-07-07 16:52:26    阅读次数:249
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!