码迷,mamicode.com
首页 >  
搜索关键字:梯度    ( 2016个结果
用Houdini实现substance的warp节点
看同事在substance演示warp节点感觉比较牛逼,推了下方程: SDF图: 变形的图: 结果: Houdini里实现,第一步实现二维的gradient(sdf),形成二维的梯度场,因为一定要在uv空间操作,所以得在sop映射个uv. 把求出来的梯度放到N属性上。为了方便的观看向量.节点网络: ...
分类:其他好文   时间:2019-06-04 13:24:06    阅读次数:114
深度学习(一)-------算法岗面试题
● BatchNormalization的作用 参考回答: 神经网络在训练的时候随着网络层数的加深,激活函数的输入值的整体分布逐渐往激活函数的取值区间上下限靠近,从而导致在反向传播时低层的神经网络的梯度消失。而BatchNormalization的作用是通过规范化的手段,将越来越偏的分布拉回到标准化 ...
分类:编程语言   时间:2019-06-03 22:12:40    阅读次数:559
python实现感知机线性分类模型
前言 感知器是分类的线性分类模型,其中输入为实例的特征向量,输出为实例的类别,取+1或-1的值作为正类或负类。感知器对应于输入空间中对输入特征进行分类的超平面,属于判别模型。 通过梯度下降使误分类的损失函数最小化,得到了感知器模型。 本节为大家介绍实现感知机实现的具体原理代码: 学习从来不是一个人的 ...
分类:编程语言   时间:2019-06-01 23:08:03    阅读次数:230
bp神经网络原理
bp(back propagation)修改每层神经网络向下一层传播的权值,来减少输出层的实际值和理论值的误差 其实就是训练权值嘛 训练方法为梯度下降法 其实就是高等数学中的梯度,将所有的权值看成自变量,误差E作为因变量 即E=f(w1,w2,w3,....,wk)//这些w就是每一层向下一层转移的 ...
分类:其他好文   时间:2019-06-01 21:33:35    阅读次数:101
随机梯度下降法实例
学习率 learning_rate:表示了每次参数更新的幅度大小。学习率过大,会导致待优化的参数在最 小值附近波动,不收敛;学习率过小,会导致待优化的参数收敛缓慢。 在训练过程中,参数的更新向着损失函数梯度下降的方向。 参数的更新公式为: 𝒘𝒏+𝟏 = 𝒘𝒏 ? 𝒍𝒆𝒂𝒓𝒏𝒊? ...
分类:其他好文   时间:2019-06-01 21:17:11    阅读次数:121
梯度提升树(Gradient Boosting Decision Tree---GBDT)
...
分类:其他好文   时间:2019-06-01 19:27:46    阅读次数:78
1-6、算法设计常用思想之迭代法
人们提出了很多迭代法来近似求解这类问题,比较常见的有梯度法、最小二乘法和牛顿迭代法,只要问题的解是可收敛的(或者是局部可收敛的),都可以使用迭代法求解。 数学意义上的迭代法是一种不断用变量的旧值递推新值的过程,其对应的迭代算法也是用计算机解决问题的一种基本方法。 迭代法和递推法的关系迭代法作为很多数 ...
分类:编程语言   时间:2019-05-30 18:03:36    阅读次数:138
深度学习相关概念整理
深度学习相关概念整理 数值梯度和解析梯度 数值梯度就是通过梯度得定义去计算出来的梯度:给予x_i一个非常小的偏移量,去计算出y的偏移量,最后用y的偏移去除以x_i的偏移就是在x_i处的偏导数。 解析梯度就是对目标函数进行直接求偏导,得到的偏导式所算出来的梯度。 CNN中的卷积层与池化层 卷积层,就是 ...
分类:其他好文   时间:2019-05-27 12:00:52    阅读次数:115
大白话5分钟带你走进人工智能-目录
目录 大白话5分钟带你走进人工智能-第一节开篇介绍以及线性回归简介篇 大白话5分钟带你走进人工智能-第二节概率基础及高斯分布 大白话5分钟带你走进人工智能-第三节最大似然推导mse损失函数(深度解析最小二乘来源)(1) 大白话5分钟带你走进人工智能-第四节最大似然推导mse损失函数(深度解析最小二乘 ...
分类:其他好文   时间:2019-05-27 10:29:12    阅读次数:152
Attention-based Model
一、Attention与其他模型 1、LSTM、RNN的缺点:输入的Memory长度不能太长,否则参数会很多。 采用attention可以输入长Memory,参数不会变多。 2、Sequence to Sequence Learning : 输入和输出的句子长度可以不一样,常用来做句子翻译。 比如: ...
分类:其他好文   时间:2019-05-27 00:49:46    阅读次数:164
2016条   上一页 1 ... 51 52 53 54 55 ... 202 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!