标签:png 结果 print pre inf 更新 导数 激活 shape
单层感知机的主要步骤:
∑
∑
经过一个激活函数Sigmoid
,得出值OO
,经过一个损失函数mse_loss
,得出值loss
loss
,以及前边所求得的值,求得loss
对各个w
的偏导数w
值 # 单层感知机梯度的推导
# 要进行优化的是w,对w进行梯度下降
a=torch.randn(1,10)
# a是一个【1,10】的向量
w=torch.randn(1,10,requires_grad=True)
# w是一个可导的【1,10】的向量
# 1.2.经过一个sigmoid激活函数
o=torch.sigmoid(a@w.t())
print(o.shape)
# 3.经过一个mse_loss损失函数
# loss是一个标量
loss=F.mse_loss(torch.ones(1,1),o)
print(loss.shape)
# 4.求loss对w0,w1....w9的偏导数
loss.backward()
print(w.grad)
# 5.后边就可以对w进行梯度更新
输出结果
torch.Size([1, 1])
torch.Size([])
tensor([[ 3.6432e-05, -7.3545e-05, -4.3179e-05, 3.3986e-04, -9.5312e-05,
-1.7416e-04, -1.7869e-05, -2.3893e-04, -1.5513e-04, -2.1554e-05]])
多层感知机的主要步骤:
1.对数据进行一个权重的累加求和,求得∑1,∑2,,,∑m
2.将∑1,∑2,,,∑m
经过一个激活函数Sigmoid
,得出值O1,O2,,,Om
3.再将O1,O2,,,Om
,经过一个损失函数mse_loss
,得出值loss
4.根据loss
,以及前边所求得的值,求得loss
对各个w
的偏导数
5.更新w
值
# 多层感知机梯度的推导
# 要进行优化的是w,对w进行梯度下降
a=torch.randn(1,10)
# a是一个【1,10】的向量
w=torch.randn(2,10,requires_grad=True)
# w是一个可导的【2,10】的向量
# 1.2.经过一个sigmoid激活函数
o=torch.sigmoid(a@w.t())
print(o.shape)
# 3.经过一个mse_loss损失函数
# loss是一个标量
loss=F.mse_loss(torch.ones(1,2),o)
print(loss)
# 4.求loss对w0,w1....w9的偏导数
loss.backward()
print(w.grad)
# 5.后边就可以对w进行梯度更新
输出结果
torch.Size([1, 2])
tensor(0.2823, grad_fn=<MeanBackward0>)
tensor([[-0.0654, 0.0242, 0.0045, -0.1007, 0.0259, -0.0522, -0.0327, 0.0805,-0.0180,-0.0186],
[-0.1300, 0.0481, 0.0090, -0.2002, 0.0514, -0.1037, -0.0650, 0.1599,-0.0358,-0.0371]])
标签:png 结果 print pre inf 更新 导数 激活 shape
原文地址:https://www.cnblogs.com/52dxer/p/13782965.html