Martin A. Zinkevich 等人(Yahoo。Lab)合作的论文 Parallelized Stochastic Gradient Descent 中给出了一种适合于 MapReduce 的并行随机梯度下降法,并给出了对应的收敛性分析。这里忽略理论部分。依据自己的理解给...
分类:
其他好文 时间:
2015-07-13 13:35:01
阅读次数:
185
梯度简单来说就是求导,在图像上表现出来的就是提取图像的边缘(不管是横向的、纵向的、斜方向的等等),所需要的无非也是一个核模板,模板的不同结果也不同。所以可以看到,所有的这些个算子函数,归结到底都可以用函数cv2.filter2D()来表示,不同的方法给予不同的核模板,然后演化为不同的算子而已。并且这只是这类滤波函数的一个用途,曾经写过一个关于matlab下滤波函数imfilter()的扩展应用(等同...
分类:
编程语言 时间:
2015-07-12 19:02:57
阅读次数:
435
原文:http://zhouyichu.com/machine-learning/Gradient-Descent.html前言最近在看斯坦福的《机器学习》的公开课,这个课程是2009年的,有点老了,不过讲的还是很好的,廓清了一些我以前关于机器学习懵懂的地方。我的一位老师曾经说过:什么叫理解?理解就...
分类:
其他好文 时间:
2015-07-12 18:47:12
阅读次数:
135
形态学一般是使用二值图像,进行边界提取,骨架提取,孔洞填充,角点提取,图像重建等等。常用的形态学操作时腐蚀与膨胀,在他们的基础上演变出一些变体,包括开运算、闭运算、梯度等等。形态学一般是对二值图像进行的操作。
下面贴几个比较好的介绍图像形态学方面的博客
图像处理基本算法-形态学
图像的形态学处理
(一)腐蚀关于腐蚀就是将图像的边界腐蚀掉,或者说使得图像整体上看起来...
分类:
编程语言 时间:
2015-07-12 17:32:35
阅读次数:
1167
原文:http://www.zhihu.com/question/20822481相同1.本质相同:两种方法都是在给定已知数据(independent & dependent variables)的前提下对dependent variables算出出一个一般性的估值函数。然后对给定新数据的depen...
分类:
其他好文 时间:
2015-07-12 01:37:05
阅读次数:
219
主要分享了Coursera 机器学习相关课程材料,包括练习题与我的Matlab解答。 课程涉及技术:梯度下降、线性回归、监督/非监督学习、分类/逻辑回归、正则化、神经网络、梯度检验/数值计算、模型选择/诊断、学习曲线、评估度量、SVM、K-Means聚类、PCA、Map Reduce & Data ...
分类:
系统相关 时间:
2015-07-11 06:41:10
阅读次数:
442
1. visualizing higher-layer features of a deep network
本文提出了两种可视化方法。
1. 最大化activation
当训练完一个深层神经网络之后, 固定所有参数。 然后对于某一个神经元的activation进行梯度上升优化来寻找能使它的值最大化的input。 不断的用gradient ascent来更新一个初始化为random...
分类:
其他好文 时间:
2015-07-09 22:43:05
阅读次数:
219
在上一篇中提到的Logistic回归是利用最大似然概率的思想和梯度上升算法确定θ,从而确定f(θ)。本篇将介绍另一种求解最大似然概率?(θ)的方法,即牛顿迭代法。
在牛顿迭代法中,假设一个函数是,求解θ值使得f(θ)=0。在图1中可知,
图1
选择一个点,对应函数值为,并将对应的切线与x轴相交的点记为,所以 ,依此类推可知牛顿迭代规律。
为了求得最大似然概率?(θ),让,...
分类:
其他好文 时间:
2015-07-07 16:52:26
阅读次数:
249