码迷,mamicode.com
首页 >  
搜索关键字:gradient    ( 1157个结果
正则表达式
正则表达式基础整理 元字符 代码说明 . 匹配除换行符以外的任意字符 \w 匹配字母或数字或下划线或汉字 \s 匹配任意的空白符 \d 匹配数字 ^ 匹配字符串的开始 $ 匹配字符串的结束 \b 匹配字符串的结束 重复匹配字符 代码说明 * 重复零次或者多次 + 重复一次或者多次 ? 重复零次或者一 ...
分类:其他好文   时间:2019-11-02 13:50:36    阅读次数:84
安卓进度条两边圆角+渐变的拓展
前言:我们知道安卓的进度条设定了背景可以使两边变圆,但是在进度里面还是直角的,下面上干货。 为什么是直角的?原因就是被clip给切了,所以我们不能够用clip,而要使用scale这个标签。 我的项目里面是这么写的 1新建xml文件progress_gradient_yellow 代码如下 这里注意下 ...
分类:移动开发   时间:2019-10-31 18:45:12    阅读次数:109
权重初始化的常见方法
1.把w初始化为0 在神经网络中,把w初始化为0是不可以的。这是因为如果把w初始化0,那么每一层的神经元学到的东西都是一样的(输出是一样的),而且在bp的时候,每一层内的神经元也是相同的,因为他们的gradient相同。 2.对w随机初始化 初始化容易出现梯度消失或者梯度爆炸的问题。 3.Xavie ...
分类:其他好文   时间:2019-10-30 11:43:56    阅读次数:166
24、神经网络优化算法比较
为高效找到使损失函数的值最小的参数,关于最优化(optimization)提了很多方法。 其中包括: SGD(stochastic gradient descent,随机梯度下降)Momentum(冲量算法)AdagradAdam 各优化算法比较实验(python) # -*- coding: ut ...
分类:编程语言   时间:2019-10-28 16:13:48    阅读次数:82
【数字图像处理】目标检测的图像特征提取之HOG特征
1、HOG特征 方向梯度直方图(Histogram of Oriented Gradient, HOG)特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子。它通过计算和统计图像局部区域的梯度方向直方图来构成特征。Hog特征结合SVM分类器已经被广泛应用于图像识别中,尤其在行人检测中获得了 ...
分类:其他好文   时间:2019-10-28 00:40:43    阅读次数:254
photometric_stereo halcon光度立体法三维表面重建
官方文档翻译 名称: photometric_stereo 通过光度立体技术重建表面。 签名: photometric_stereo(Images : HeightField, Gradient, Albedo : Slants, Tilts, ResultType, ReconstructionM ...
分类:其他好文   时间:2019-10-25 18:46:55    阅读次数:125
集成学习(四):GBDT
GBDT算法: 所谓的GBDT(Gradient Boost Desicison Tree)就是值在每一步迭代时我们难以真正求得一个新的模型使得其加上原有模型得到的损失最小,但是我们可以用所谓的梯度下降法使得损失减小。 输入:训练数据集$D+\lbrace(x_{1},y_{1}),...,(x_{ ...
分类:其他好文   时间:2019-10-17 14:03:33    阅读次数:83
04-09 XgBoost算法
[TOC]更新、更全的《机器学习》的更新网站,更有python、go、数据结构与算法、爬虫、人工智能教学等着你:https://www.cnblogs.com/nickchen121/# XgBoost算法XgBoost算法(eXtreme Gradient Boosting)属于Boosting系... ...
分类:编程语言   时间:2019-10-16 17:34:15    阅读次数:102
TensorFlow2.0 入门教程实战案例
中文文档 TensorFlow 2 / 2.0 中文文档 知乎专栏 欢迎关注知乎专栏 https://zhuanlan.zhihu.com/geektutu 一、实战教程之强化学习 TensorFlow 2.0 (九) - 强化学习 70行代码实战 Policy Gradient TensorFlo ...
分类:其他好文   时间:2019-10-15 19:20:46    阅读次数:193
神经网络训练的时候什么时候更新参数?
更新参数的时间和训练的方法有关,更确切的说,是我们为了设置什么时候更新参数,才使用哪种方法进行训练 1、如果一次性训练全部样本才更新参数,就将所有样本都丢进去(相当于只有一个batch),Gradient Descent梯度下降法进行计算 2、如果每计算一个样本,就更新一次参数,我们使用 Stoch ...
分类:其他好文   时间:2019-10-10 15:51:11    阅读次数:242
1157条   上一页 1 ... 12 13 14 15 16 ... 116 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!