码迷,mamicode.com
首页 >  
搜索关键字:梯度    ( 2016个结果
简单例子说明梯度下降、momentum和学习率衰减
【梯度下降法】一:快速教程、Python简易实现以及对学习率的探讨 【梯度下降法】二:冲量(momentum)的原理与Python实现 【梯度下降法】三:学习率衰减因子(decay)的原理与Python实现 ...
分类:其他好文   时间:2020-02-23 11:50:12    阅读次数:79
Tensorflow--RNN-LSTM循环神经网络(四)
train.py: # -*- coding: UTF-8 -*- """ 训练神经网络模型 大家之后可以加上各种的 name_scope(命名空间) 用 TensorBoard 来可视化 一些术语的概念 # Batch size : 批次(样本)数目。一次迭代(Forword 运算(用于得到损失函 ...
分类:其他好文   时间:2020-02-22 22:23:04    阅读次数:85
Pytorch学习之梯度计算backward函数
Pytorch在梯度方面提供的功能,大多是为神经网络而设计的。而官方文档给出的定义和解释比较抽象。以下将结合实例,总结一下自己对Pytorch中梯度计算backward函数的理解。 1. 简单的神经网络构建 首先我们看一个非常简单的神经网络。 假设x1,x2是神经网络的中间层,y是我们的输出层,Y是 ...
分类:其他好文   时间:2020-02-22 10:14:48    阅读次数:215
自动求梯度(pytorch版本)——2.20
一、Tensor用于自动求梯度 "tensor"这个单词?般可译作“张量”,张量可以看作是?个多维数组。标量可以看作是0维张量,向量可以看作1维张量,矩阵可以看作是?维张量。 在深度学习中,我们经常需要对函数求梯度(gradient)。PyTorch提供的 包能够根据输?和前向传播过程?动构建计算图 ...
分类:其他好文   时间:2020-02-21 00:11:32    阅读次数:60
【Course】Machine learning:Week 2-Lecture1-Gradient Descent For Multiple Variables
Gradient Descent For Multiple Variables 问题提出:Week2的梯度下降问题由单一变量转变成了多变量: 相应的公式如下: 梯度下降算法 $$ \begin{array}{l}{\text { repeat until convergence: }\{} \\ { ...
分类:系统相关   时间:2020-02-20 22:12:11    阅读次数:76
Tensorflow--梯度下降解决线性回归
Tensorflow一些常见操作: 代码: # -*- coding: UTF-8 -*- """ 用梯度下降的优化方法来快速解决线性回归问题 """ import numpy as np import matplotlib.pyplot as plt import tensorflow as tf ...
分类:其他好文   时间:2020-02-19 20:49:02    阅读次数:78
机器学习之梯度下降法
concordance/k?n'k??d(?)ns/一致```py'''读取数据,预处理3600=3200 400'''import pandas as pdimport numpy as npimport matplotlib.pyplot as plttrain_data=pd.read_csv... ...
分类:其他好文   时间:2020-02-19 17:01:01    阅读次数:79
Canny,先Scharr得梯度再Canny,三通道黑色背景展示结果(OpenCV案例源码edge.cpp)
有所更改,参数不求完备,但求实用。源码参考D:\source\opencv-3.4.9\samples\cpp\edge.cpp #include<opencv2\opencv.hpp> #include<iostream> using namespace cv; using namespace s ...
分类:其他好文   时间:2020-02-19 13:26:35    阅读次数:90
机器学习:逻辑回归
虽然名字里带回归,但实际上是一种分类方法,主要用于两分类问题,即只有两种分类 优点:计算代价不高,易于理解和实现 缺点:容易欠拟合,分类精度可能不高 原理 线性回归函数 $\small z = f(X) = XW$ 其中 X 是特征值 W 是回归系数 X 和 W 都是向量,可展开为 $\small ...
分类:其他好文   时间:2020-02-19 00:49:46    阅读次数:89
04_特征工程
1.Feature Scaling 对数据的自变量或特征范围进行标准化的一种方法。在数据处理中,它也称为数据规范化,通常在数据预处理步骤中执行。 为什么要进行Feature Scaling: 如果输入范围变化,在某些算法中,对象函数将不能正常工作。 梯度下降收敛得更快,与特征缩放完成。梯度下降法是逻 ...
分类:其他好文   时间:2020-02-18 14:49:08    阅读次数:67
2016条   上一页 1 ... 21 22 23 24 25 ... 202 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!