习题1.1 统计学习方法的三要素为:模型、策略、算法。 模型即需要用函数 \(Y=f_\theta(X)\) 或者条件概率分布 \(P_\theta(Y|X)\) 表示。 策略即寻找合适的损失函数,表示预测值与真实值之间的误差,进而构建风险函数。风险函数就是最优化的目标函数。 算法即学习模型时需要选 ...
分类:
其他好文 时间:
2021-06-21 20:51:54
阅读次数:
0
图像分类train.py代码总结 前两天,熟悉了图像分类的训练代码,发现,不同网络,只是在网络结构上不同。而训练部分的代码,都是由设备选择、数据转换,路径确定、数据导入、JSON文件生成、损失函数选择、优化器选择、模型带入和训练集数据和测试集数据训练固定几部分组成的。 其中的模型是根据自己选择的不同 ...
分类:
其他好文 时间:
2021-06-18 18:50:14
阅读次数:
0
(1)相较于线性回归,使用激活函数sigmoid函数,将结果以0-1之间呈现 (2)损失函数计算:cross-entropy交叉熵 1 import torch 2 3 #data 4 x_data = torch.Tensor([[1.0], [2.0], [3.0]]) 5 y_data = t ...
分类:
其他好文 时间:
2021-04-19 16:02:51
阅读次数:
0
pytorch写神经网络 (1)准备数据集 (2)涉及模型(yheight) (3)构造损失函数和优化器 (4)训练周期(前馈、反馈、更新) 1 import torch 2 3 #1.准备数据 4 x_data=torch.tensor([[1.0],[2.0],[3.0]]) 5 y_data= ...
分类:
其他好文 时间:
2021-04-19 15:52:05
阅读次数:
0
结果展示 其中绿线是我绘制的图像划分网格。 这里的loss是我训练的 0.77 ,由于损失函数是我自己写的,所以可能跟大家的不太一样,这个不重要,重要的是学习思路。 重点提示 yolov1是一个目标检测的算法,他是一阶段的检测算法。 一阶段(one-stage):检测物体的同时进行分类。(代表论文: ...
分类:
其他好文 时间:
2021-03-16 13:46:02
阅读次数:
0
梯度下降: θ 不一定可求。找最低点:每走一步求偏导调整方向。 第一步: 获得目标函数 第二步:交给机器一堆数据,告诉它想要的最终结果,告诉他什么样的算法。 第三步: 如何优化。迭代10000次。完成迭代 随机点,更新参数。 计算损失函数,每个样本都要参数计算。 数据存在: 离群点,噪音点。 小批量 ...
分类:
其他好文 时间:
2021-03-06 14:41:58
阅读次数:
0
一、监督学习 1、回归模型 1.1 线性回归模型 求解 最小二乘法 梯度下降法 2、分类模型 2.1 K近邻(KNN) 示例 KNN距离计算 KNN算法 2.2 逻辑斯蒂回归 逻辑斯蒂回归 —— 分类问题 Sigmoid函数(压缩函数) 逻辑斯谛回归损失函数 梯度下降法求解 2..3 决策树 示例 ...
分类:
其他好文 时间:
2021-02-10 12:54:48
阅读次数:
0
TensorFlow损失函数 正如前面所讨论的,在回归中定义了损失函数或目标函数,其目的是找到使损失最小化的系数。本文将介绍如何在 TensorFlow 中定义损失函数,并根据问题选择合适的损失函数。 声明一个损失函数需要将系数定义为变量,将数据集定义为占位符。可以有一个常学习率或变化的学习率和正则 ...
分类:
其他好文 时间:
2021-01-30 12:19:01
阅读次数:
0
TensorFlow优化器及用法 函数在一阶导数为零的地方达到其最大值和最小值。梯度下降算法基于相同的原理,即调整系数(权重和偏置)使损失函数的梯度下降。 在回归中,使用梯度下降来优化损失函数并获得系数。本文将介绍如何使用 TensorFlow 的梯度下降优化器及其变体。 按照损失函数的负梯度成比例 ...
分类:
其他好文 时间:
2021-01-30 12:17:31
阅读次数:
0
损失函数 总损失定义为: yi为第i个训练样本的真实值 h(xi)为第i个训练样本特征值组合预测函数 又称最小二乘法 正规方程 理解:X为特征值矩阵,y为目标值矩阵。直接求到最好的结果 缺点:当特征过多过复杂时,求解速度太慢并且得不到结果 其中y是真实值矩阵,X是特征值矩阵,w是权重矩阵 对其求解关 ...
分类:
其他好文 时间:
2021-01-25 11:38:16
阅读次数:
0