码迷,mamicode.com
首页 > 其他好文 > 详细

Pytorch_torch.nn.MSELoss

时间:2020-02-27 01:06:32      阅读:358      评论:0      收藏:0      [点我收藏+]

标签:return   with   类型   使用   函数   ati   版本   float   预测   

Pytorch_torch.nn.MSELoss

均方损失函数作用主要是求预测实例与真实实例之间的loss

loss(xi,yi)=(xi?yi)2

  • 函数需要输入两个tensor,类型统一设置为float,否则会报错,也可以在全局设置torch.set_default_tensor_type(torch.FloatTensor),也可以在计算时转换
loss=torch.nn.MSELoss()
c=torch.tensor([[1,2],[3,4]])
d=torch.tensor([[5,6],[7,8]])
loss(c.float(),d.float())
  • 单个tensor正常求即可,多个求其平均loss。

item()方法

如果tensor只有一个元素,调用item会将tensor转为python中scalars;如果不是一个元素,则会报错。

Pytorch_with torch.no_grad()

requires_grad默认为False,如果某个节点被设置为True,那依赖它的节点的改参数都为True。例如y=xw,y依赖w,w的改参数设置为True时,y的该参数也变为True。 Pytorch较早版本中,有volatile该参数的设定比requires_grad的级别要高,主要是为了使某节点不求导,但现在已经被弃用。现在功能已经被with torch.no_grad代替:

x=torch.tensor([1],requires_grad=True)
with torch.no_grad():
    y = x * 10
y.requires_grad ###False
#也可以使用 @torch.no_grad()
@torch.no_grad()
def ten_folder(x):
    return x * 10
z= ten_folder(x)
z.requires_grad #结果为False 

Pytorch_torch.nn.MSELoss

标签:return   with   类型   使用   函数   ati   版本   float   预测   

原文地址:https://www.cnblogs.com/Cobby-baby/p/12369893.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!