一、图像梯度 我们知道一阶导数可以用来求极值。把图片想象成连续函数,因为边缘部分的像素值与旁边的像素明显有区别,所以对图片局部求极值,就可以得到整幅图片的边缘信息。不过图片是二维的离散函数,导数就变成了差分,这个查分就变成了图像梯度。 1. 垂直边缘提取 滤波是应用卷积来实现的,卷积的关键就是卷积核 ...
分类:
编程语言 时间:
2019-04-14 12:36:26
阅读次数:
257
https://www.jianshu.com/p/c7e642877b0e ...
分类:
编程语言 时间:
2019-04-13 21:52:42
阅读次数:
145
问题 如上图所示,第二次迭代时出现NAN值 定位loss NAN的方法 使用tensorflow的代码调试模块tfdbg,可以看到运行tensorflow graph时的内部结构体和状态,方便排查变量出现NAN、inf的情况。tfdbg的官方文档介绍 https://www.tensorflow.o ...
分类:
其他好文 时间:
2019-04-13 18:57:42
阅读次数:
198
这篇文章主要整理三部分内容,一是常见的三种神经网络结构:前馈神经网络、反馈神经网络和图网络;二是整理前馈神经网络中正向传播、误差反向传播和梯度下降的原理;三是梯度消失和梯度爆炸问题的原因及解决思路。 一、神经网络结构 目前比较常用的神经网络结构有如下三种: 1、前馈神经网络 前馈神经网络中,把每个神 ...
分类:
其他好文 时间:
2019-04-12 23:19:01
阅读次数:
1168
SGD 梯度下降法根据每次更新参数时使用的样本数量分为Stochastic Gradient Descent(随机梯度下降法,SGD)、mini-batch Gradirnt Descent(小批量梯度下降法,mBGD)和Batch Gradient Descent(批量梯度下降法,BGD)三种。通... ...
分类:
其他好文 时间:
2019-04-11 10:41:24
阅读次数:
184
首先明确一点,gbdt 无论用于分类还是回归一直都是使用的CART 回归树。不会因为我们所选择的任务是分类任务就选用分类树,这里面的核心是因为gbdt 每轮的训练是在上一轮的训练的残差基础之上进行训练的。这里的残差就是当前模型的负梯度值 。这个要求每轮迭代的时候,弱分类器的输出的结果相减是有意义的。 ...
分类:
其他好文 时间:
2019-04-06 17:04:06
阅读次数:
106
GitHub代码练习地址:https://github.com/Neo-ML/MachineLearningPractice/blob/master/Pytorch01_LinearRegression.py 有关线性回归的公式及相关代码实现: Step1: 代码实现为: Step2:单步梯度下降 ...
分类:
其他好文 时间:
2019-04-05 09:34:15
阅读次数:
165
scipy中的optimize子包中提供了常用的最优化算法函数实现,我们可以直接调用这些函数完成我们的优化问题。 scipy.optimize包提供了几种常用的优化算法。 该模块包含以下几个方面 使用各种算法(例如BFGS,Nelder-Mead单纯形,牛顿共轭梯度,COBYLA或SLSQP)的无约 ...
分类:
编程语言 时间:
2019-04-03 12:24:43
阅读次数:
2317
数据 32.502345269453031,31.70700584656992 53.426804033275019,68.77759598163891 61.530358025636438,62.562382297945803 47.475639634786098,71.5466322335677 ...
分类:
其他好文 时间:
2019-04-02 12:47:57
阅读次数:
230