码迷,mamicode.com
首页 >  
搜索关键字:梯度    ( 2016个结果
随机梯度下降的技术细节
本文是关于用SGD解如下四个问题\begin{align*} \mbox{SVM}: & \ \ \min_{\boldsymbol{w}} \ \frac{\lambda}{2} \|\boldsymbol{w}\|_2^2 + \frac{1}{M} \sum_{m=1}^M \max (0.....
分类:其他好文   时间:2015-01-28 06:08:01    阅读次数:167
【opencv2】生成图像的梯度图
先看代码: #include #include #include #include using namespace cv; using namespace std; typedef unsigned char byte; void gradientGray(Mat &src, Mat &mag); int main(){ Mat src = imread("1.jpg", ...
分类:其他好文   时间:2015-01-27 13:23:07    阅读次数:342
2014年年记 version_0.2
本文禁止任何爬虫爬取!来源:http://www.cnblogs.com/sciencefans/ 一直都持有一个观点,思考是最佳的学习途径(当然信息的获取是必不可少的),就像神经网络里,看书就是训练set的训练,思考则是最重要的求梯度BP的过程。2014年是一个神奇的一年,在这一年中发生了很多事情...
分类:其他好文   时间:2015-01-26 06:29:51    阅读次数:284
梯度、散度和旋度
梯度、散度和旋度
分类:其他好文   时间:2015-01-25 09:48:06    阅读次数:163
生理学学习的六种学习和记忆方法
一、深刻理解概念   生理学是一门理论性较强的机能性学科,其基本概念多,要使学生掌握基本理论,首先要讲透基本概念。比如:在讲到物质的跨膜转运方式时,关于概念单纯扩散和易化扩散的概念。单纯扩散:脂溶性的小分子物质顺浓度或顺电位梯度转运的一种方式;易化扩散:非脂溶性或脂溶性很小的小分子在膜特殊蛋白质帮助下顺浓度或电位梯度扩散的一种方式;从概念的信息中,我们知道单纯扩散转运的是脂溶性的小分子,而细胞膜...
分类:其他好文   时间:2015-01-25 08:46:54    阅读次数:401
目标检測的图像特征提取之(一)HOG特征
1、HOG特征: 方向梯度直方图(Histogram of Oriented Gradient, HOG)特征是一种在计算机视觉和图像处理中用来进行物体检測的特征描写叙述子。它通过计算和统计图像局部区域的梯度方向直方图来构成特征。Hog特征结合SVM分类器已经被广泛应用于图像识别中,尤其在行人检測中...
分类:其他好文   时间:2015-01-23 18:09:51    阅读次数:230
Stanford机器学习课程笔记——单变量线性回归和梯度下降法
Stanford机器学习课程笔记——单变量线性回归和梯度下降法      1. 问题引入     单变量线性回归就是我们通常说的线性模型,而且其中只有一个自变量x,一个因变量y的那种最简单直接的模型。模型的数学表达式为y=ax+b那种,形式上比较简单。Stanford的机器学习课程引入这个问题也想让我们亲近一下machine learning这个领域吧~吴恩达大神通过一个房屋交易的问...
分类:其他好文   时间:2015-01-23 13:31:42    阅读次数:174
(转)matlab练习程序(HOG方向梯度直方图)
matlab练习程序(HOG方向梯度直方图)http://www.cnblogs.com/tiandsp/archive/2013/05/24/3097503.htmlHOG(Histogram of Oriented Gradient)方向梯度直方图,主要用来提取图像特征,最常用的是结合svm进行...
分类:其他好文   时间:2015-01-21 19:45:49    阅读次数:251
(转)梯度方向直方图HOG(Histograms of Oriented Gradients )
HOG(Histograms of Oriented Gradients )梯度方向直方图 方向梯度直方图(Histogram of Oriented Gradient, HOG)特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子。此方法使用了图像的本身的梯度方向特征,类似于边缘方向直方...
分类:其他好文   时间:2015-01-21 19:35:44    阅读次数:230
Caffe中的优化方法
在Deep Learning中,往往loss function是非凸的,没有解析解,我们需要通过优化方法来求解。Caffe通过协调的进行整个网络的前向传播推倒以及后向梯度对参数进行更新,试图减小损失。  Caffe已经封装好了三种优化方法,分别是Stochastic Gradient Descent (SGD), AdaptiveGradient (ADAGRAD), and Nesterov’...
分类:其他好文   时间:2015-01-21 09:06:32    阅读次数:1047
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!