码迷,mamicode.com
首页 > 其他好文 > 详细

nn.CrossEntropyLoss()->nn.SoftmaxCrossEntropyWithLogits

时间:2021-06-10 18:33:56      阅读:0      评论:0      收藏:0      [点我收藏+]

标签:log   loss   默认   softmax   sse   git   bsp   parse   参数   

问题描述:
在pytorch中,利用nn.CrossEntropyLoss()求取的loss值是一个tensor标量,但是利用mindspore中nn.SoftmaxCrossEntropyWithLogits()求取的loss值是一个矢量(因为batct_size是32,所以求得的loss也是一个32*1的矢量)
原因:
在pytorch中,nn.CrossEntropyLoss()的参数默认值reduction=‘mean‘,求取的是平均值;
而在mindspore中,nn.SoftmaxCrossEntropyWithLogits的参数默认值reduction=‘none‘。
 
mindspore中
nn.SoftmaxCrossEntropyWithLogits(sparse=True, reduction ="mean")
pytorch中
nn.CrossEntropyLoss()

nn.CrossEntropyLoss()->nn.SoftmaxCrossEntropyWithLogits

标签:log   loss   默认   softmax   sse   git   bsp   parse   参数   

原文地址:https://www.cnblogs.com/loyolh/p/14870602.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!