标签:return with 类型 使用 函数 ati 版本 float 预测
loss(xi,yi)=(xi?yi)2
loss=torch.nn.MSELoss()
c=torch.tensor([[1,2],[3,4]])
d=torch.tensor([[5,6],[7,8]])
loss(c.float(),d.float())
如果tensor只有一个元素,调用item会将tensor转为python中scalars;如果不是一个元素,则会报错。
requires_grad默认为False,如果某个节点被设置为True,那依赖它的节点的改参数都为True。例如y=xw,y依赖w,w的改参数设置为True时,y的该参数也变为True。 Pytorch较早版本中,有volatile该参数的设定比requires_grad的级别要高,主要是为了使某节点不求导,但现在已经被弃用。现在功能已经被with torch.no_grad代替:
x=torch.tensor([1],requires_grad=True)
with torch.no_grad():
y = x * 10
y.requires_grad ###False
#也可以使用 @torch.no_grad()
@torch.no_grad()
def ten_folder(x):
return x * 10
z= ten_folder(x)
z.requires_grad #结果为False
标签:return with 类型 使用 函数 ati 版本 float 预测
原文地址:https://www.cnblogs.com/Cobby-baby/p/12369893.html