标签:bsp 线性 神经网络 大于 函数 编码 选择 一个 概率
对于分类问题的神经网络最后一层的函数做如下知识点总结:
sigmoid函数的定义:令p(y=1)=x,p(y=0)=1-x,f =ln( x/(1-x)),推导出x=ef/(1-ef),即输出的是y=1的概率,这一点与softmax函数不同.
常用损失函数介绍:
MSE:均方误差一遍用于回归问题的损失函数,当然它也是回归问题的一个度量函数,回归问题最后一层神经元一般采用线性激活函数;
交叉熵:
对于分类问题的神经网络最后一层的函数:sigmoid、softmax与损失函数
标签:bsp 线性 神经网络 大于 函数 编码 选择 一个 概率
原文地址:https://www.cnblogs.com/wzdLY/p/9712560.html