1. LightGBM是什么东东 不久前微软DMTK(分布式机器学习工具包)团队在GitHub上开源了性能超越其他boosting工具的LightGBM,在三天之内GitHub上被star了1000次,fork了200次。知乎上有近千人关注“如何看待微软开源的LightGBM?”问题,被评价为“速.... ...
分类:
其他好文 时间:
2019-07-11 09:56:24
阅读次数:
512
一、文本颜色渐变 <gradient> :可以应用在所有接受图像的属性上,允许使用简单的语法实现颜色渐变,以便UA在渲染页面自动生成图像。 语法:<gradient> = linear-gradient() | repeating-linear-gradient() | radial-gradien ...
分类:
Web程序 时间:
2019-07-10 18:31:07
阅读次数:
163
中文文档 "TensorFlow 2 / 2.0 中文文档" 知乎专栏 欢迎关注知乎专栏 "https://zhuanlan.zhihu.com/geektutu" 一、实战教程之强化学习 "TensorFlow 2.0 (九) 强化学习 70行代码实战 Policy Gradient" "Tens ...
分类:
其他好文 时间:
2019-07-09 13:40:22
阅读次数:
116
Python 实现简单的梯度下降法 机器学习算法常常可以归结为求解一个最优化问题,而梯度下降法就是求解最优化问题的一个方法。 梯度下降法(gradient descent)或最速下降法(steepest decent),是求解无约束最优化问题的一种最常用的方法。 梯度下降法实现简单,是一种迭代算法, ...
分类:
编程语言 时间:
2019-06-30 09:32:22
阅读次数:
116
1、 HOG特征 方向梯度直方图(Histogram of Oriented Gradient, HOG)特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子。它通过计算和统计图像局部区域的梯度方向直方图来构成特征。Hog特征结合SVM分类器已经被广泛应用于图像识别中,尤其在行人检测中获得 ...
分类:
其他好文 时间:
2019-06-28 11:42:44
阅读次数:
92
像这样的由全部变量的偏导数汇总而成的向量称为梯度(gradient),梯度可以像下面这样来实现,这里使用的是用数值微分求梯度的方法。 梯度法 虽然梯度的方向并不一定指向最小值,但沿着它的方向能够最大限度地减小函数的值。因此,在寻找函数的最小值(或者尽可能小的值)的位置的任务中,要以梯度的信息为线索, ...
分类:
其他好文 时间:
2019-06-25 00:09:50
阅读次数:
116
用处 基于SVD实现模型压缩以适配低功耗平台 根据nnet3bin/nnet3-copy,nnet3-copy或nnet3-am-copy的"--edits-config"参数中,新支持了以下选项: apply-svd name= bottleneck-dim= 查找所有名字与匹配的组件,类型需要是... ...
分类:
Web程序 时间:
2019-06-21 13:08:58
阅读次数:
463
1、知识点 2、中文数据清洗(使用停用词) 3、英文数据清洗(使用停用词) 4、stopwords_english.txt ...
分类:
编程语言 时间:
2019-06-13 22:01:53
阅读次数:
614
看同事在substance演示warp节点感觉比较牛逼,推了下方程: SDF图: 变形的图: 结果: Houdini里实现,第一步实现二维的gradient(sdf),形成二维的梯度场,因为一定要在uv空间操作,所以得在sop映射个uv. 把求出来的梯度放到N属性上。为了方便的观看向量.节点网络: ...
分类:
其他好文 时间:
2019-06-04 13:24:06
阅读次数:
114
学习率 learning_rate:表示了每次参数更新的幅度大小。学习率过大,会导致待优化的参数在最 小值附近波动,不收敛;学习率过小,会导致待优化的参数收敛缓慢。 在训练过程中,参数的更新向着损失函数梯度下降的方向。 参数的更新公式为: 𝒘𝒏+𝟏 = 𝒘𝒏 ? 𝒍𝒆𝒂𝒓𝒏𝒊? ...
分类:
其他好文 时间:
2019-06-01 21:17:11
阅读次数:
121