码迷,mamicode.com
首页 > 其他好文 > 详细

Softmax && Cross-entropy Error

时间:2018-07-08 20:37:07      阅读:180      评论:0      收藏:0      [点我收藏+]

标签:表示   com   lse   image   -o   class   example   info   XML   

softmax 函数,被称为 归一化指数函数,是sigmoid函数的推广。

它将向量等比压缩到[0, 1]之间,所有元素和为1.

技术分享图片

Example:

softmax([1, 2, 3, 4, 1, 2, 3]) = [0.024, 0.064, 0.175, 0.475, 0.024, 0.064, 0.175]

Code:

import numpy as np

def softmax(x):
    c = np.max(x, axis = x.ndim - 1, keepdims = True)
    y = np.sum(np.exp(x - c), axis = x.ndim - 1, keepdims = True)
    x = np.exp(x - c) / y
    return x

softmax and sigmoid 异同:

技术分享图片

 

 

Cross-entropy Error(CE):交叉熵误差

技术分享图片

假设误差是二值分布:

技术分享图片

其中yi表示真实概率分布,只有yk=1,而yj=0jky^i表示预测概率分布,设它的输入为θi,则

技术分享图片

技术分享图片

 

Softmax && Cross-entropy Error

标签:表示   com   lse   image   -o   class   example   info   XML   

原文地址:https://www.cnblogs.com/ylHe/p/9281117.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!